AI+ Crypto là một trong những lĩnh vực tiên phong đã thu hút nhiều sự chú ý trên thị trường tiền điện tử gần đây, chẳng hạn như đào tạo AI phi tập trung, GPU DePIN và mô hình AI chống kiểm duyệt.
Đằng sau những tiến bộ chói sáng này, chúng ta không khỏi đặt câu hỏi: Đây có phải là bước đột phá công nghệ thực sự hay chỉ là một chủ đề nóng? Bài viết này sẽ phân tích tầm nhìn mã hóa x AI và thảo luận về những thách thức và cơ hội thực sự, đồng thời tiết lộ những thách thức và cơ hội nào là những lời hứa suông và những gì thực sự khả thi?
Giả thuyết
1. Đào tạo AI phi tập trung
Vấn đề với việc đào tạo AI trên chuỗi là nó yêu cầu giao tiếp và phối hợp tốc độ cao giữa các GPU vì mạng lưới thần kinh yêu cầu lan truyền ngược trong quá trình đào tạo. Nvidia có hai cải tiến cho việc này (NVLink và InfiniBand). Những công nghệ này giúp giao tiếp GPU cực nhanh, nhưng chúng là những công nghệ chỉ hoạt động cục bộ và chỉ hoạt động với các cụm GPU nằm trong một trung tâm dữ liệu duy nhất (tốc độ 50 gigabit trở lên).
Nếu một mạng phi tập trung được giới thiệu, tốc độ sẽ đột ngột chậm lại vài bậc do độ trễ và băng thông mạng tăng lên. So với thông lượng thu được từ kết nối tốc độ cao của Nvidia trong trung tâm dữ liệu, tốc độ này là không thể đối với các trường hợp sử dụng đào tạo AI.
Lưu ý rằng cũng có những đổi mới dưới đây có thể mang lại hy vọng cho tương lai:
- Hoạt động đào tạo phân tán về InfiniBand đang diễn ra trên quy mô lớn vì chính NVIDIA đang hỗ trợ đào tạo không phải là người bản xứ được phân phối trên InfiniBand thông qua Thư viện Truyền thông Tập thể NVIDIA. Tuy nhiên, nó vẫn đang ở giai đoạn sơ khai nên các số liệu về việc áp dụng vẫn chưa được xác định. Nút thắt của các quy luật vật lý về khoảng cách vẫn tồn tại nên việc đào tạo địa phương trên InfiniBand vẫn nhanh hơn nhiều.
- Một số nghiên cứu mới đã được công bố về đào tạo phi tập trung đòi hỏi ít thời gian đồng bộ hóa giao tiếp hơn, điều này có thể khiến việc đào tạo phi tập trung trở nên thiết thực hơn trong tương lai.
- Phân chia thông minh và lập kế hoạch đào tạo mô hình giúp cải thiện hiệu suất. Tương tự như vậy, các kiến trúc mô hình mới có thể được thiết kế đặc biệt cho cơ sở hạ tầng phân tán trong tương lai (Gensyn đang tiến hành nghiên cứu trong các lĩnh vực này).
Phần dữ liệu của đào tạo cũng là một thách thức. Bất kỳ quá trình đào tạo AI nào cũng liên quan đến việc xử lý lượng lớn dữ liệu. Thông thường, các mô hình được đào tạo trên hệ thống lưu trữ dữ liệu an toàn tập trung với khả năng mở rộng và hiệu suất cao. Điều này đòi hỏi hàng terabyte dữ liệu phải được truyền và xử lý và đây không phải là chu kỳ một lần. Dữ liệu thường nhiễu và chứa nhiều lỗi nên phải được làm sạch và chuyển đổi thành định dạng có thể sử dụng được trước khi huấn luyện mô hình. Giai đoạn này bao gồm các nhiệm vụ lặp đi lặp lại như chuẩn hóa, lọc và xử lý các giá trị còn thiếu. Tất cả đều phải đối mặt với những thách thức nghiêm trọng trong một môi trường phi tập trung.
Phần dữ liệu huấn luyện cũng có tính lặp lại, không tương thích với Web3. OpenAI đã trải qua hàng nghìn lần lặp lại để đạt được kết quả. Trong nhóm AI, các kịch bản nhiệm vụ cơ bản nhất của các nhà khoa học dữ liệu bao gồm xác định mục tiêu, chuẩn bị dữ liệu, phân tích và sắp xếp dữ liệu để rút ra những hiểu biết quan trọng và làm cho nó phù hợp để lập mô hình. Sau đó, phát triển mô hình học máy để giải quyết vấn đề đã xác định và xác thực hiệu suất của nó bằng cách sử dụng tập dữ liệu thử nghiệm. Quá trình này được lặp đi lặp lại: nếu mô hình hiện tại không hoạt động như mong đợi, các chuyên gia sẽ quay lại giai đoạn thu thập dữ liệu hoặc đào tạo mô hình để cải thiện kết quả. Hãy tưởng tượng rằng nếu quá trình này được thực hiện trong một môi trường phi tập trung, sẽ không dễ dàng để điều chỉnh các khuôn khổ và công cụ tiên tiến nhất hiện có cho phù hợp với Web3.
Một vấn đề khác với việc đào tạo các mô hình AI trên chuỗi là thị trường này kém thú vị hơn nhiều so với suy luận. Hiện nay, việc đào tạo các mô hình ngôn ngữ AI quy mô lớn đòi hỏi một lượng lớn tài nguyên tính toán GPU. Về lâu dài, suy luận sẽ trở thành kịch bản ứng dụng chính của GPU. Hãy tưởng tượng xem có bao nhiêu mô hình ngôn ngữ quy mô lớn AI cần được đào tạo để đáp ứng nhu cầu toàn cầu. So với số lượng khách hàng sử dụng các mô hình này, cái nào nhiều hơn?
2. Sử dụng các phép tính suy luận AI quá dư thừa để đạt được sự đồng thuận
Một thách thức khác liên quan đến mã hóa và AI là xác minh tính chính xác của suy luận AI, bởi vì bạn không thể tin tưởng hoàn toàn vào một bên tập trung duy nhất để thực hiện các hoạt động suy luận và có nguy cơ tiềm ẩn là các nút có thể hoạt động không phù hợp. Thử thách này không tồn tại trong Web2 AI vì không có hệ thống đồng thuận phi tập trung.
Giải pháp là tính toán dự phòng, cho phép nhiều nút lặp lại cùng một hoạt động suy luận AI, để nó có thể chạy trong môi trường không cần tin cậy và tránh các điểm lỗi duy nhất.
Tuy nhiên, vấn đề với cách tiếp cận này là đang thiếu hụt trầm trọng chip AI cao cấp. Thời gian chờ đợi kéo dài hàng năm trời để mua được chip NVIDIA cao cấp đã đẩy giá lên cao. Nếu bạn yêu cầu thực hiện lại suy luận AI nhiều lần trên nhiều nút, thì việc này sẽ trở nên đắt hơn theo cấp số nhân, khiến nhiều dự án không thể thực hiện được.
3. Các trường hợp sử dụng AI dành riêng cho Web3 trong thời gian ngắn
Có ý kiến cho rằng Web3 nên có các trường hợp sử dụng AI riêng dành riêng cho khách hàng Web3. Đây có thể là (ví dụ) giao thức Web3 sử dụng AI để đánh giá rủi ro nhóm DeFi, ví Web3 đề xuất giao thức mới cho người dùng dựa trên lịch sử ví hoặc trò chơi Web3 sử dụng AI để điều khiển các nhân vật không phải người chơi (NPC).
Hiện tại, đây là một thị trường non trẻ (trong ngắn hạn) nơi các trường hợp sử dụng vẫn đang được khám phá. Một số thách thức bao gồm:
- Vì nhu cầu thị trường vẫn còn ở giai đoạn sơ khai nên các trường hợp sử dụng gốc Web3 yêu cầu ít giao dịch AI tiềm năng hơn.
- Có ít khách hàng hơn, số lượng đơn đặt hàng của khách hàng Web3 ít hơn so với khách hàng Web2, do đó thị trường ít được phân cấp hơn.
- Bản thân khách hàng kém ổn định hơn vì họ là những công ty khởi nghiệp với ít vốn hơn và một số công ty khởi nghiệp có thể lụi tàn theo thời gian. Các nhà cung cấp dịch vụ Web3 AI phục vụ khách hàng Web3 có thể cần lấy lại một số cơ sở khách hàng của họ để thay thế những cơ sở khách hàng đã biến mất, khiến việc mở rộng quy mô kinh doanh của họ trở nên vô cùng khó khăn.
Về lâu dài, chúng tôi rất lạc quan về các trường hợp sử dụng AI gốc Web3, đặc biệt khi các tác nhân AI trở nên phổ biến hơn. Chúng tôi tưởng tượng rằng trong tương lai, bất kỳ người dùng Web3 nào cũng sẽ có một số lượng lớn tác nhân AI để giúp họ hoàn thành nhiệm vụ của mình.
4. GPU DePIN dành cho người tiêu dùng
Có nhiều mạng điện toán AI phi tập trung dựa vào GPU cấp độ người tiêu dùng thay vì trung tâm dữ liệu. GPU tiêu dùng lý tưởng cho các tác vụ suy luận AI cấp thấp hoặc các trường hợp sử dụng của người tiêu dùng trong đó độ trễ, thông lượng và độ tin cậy linh hoạt. Nhưng đối với các trường hợp sử dụng nghiêm túc của doanh nghiệp (phần lớn thị trường quan trọng), khách hàng cần mạng có độ tin cậy cao hơn so với máy gia đình và thường là GPU cao cấp hơn nếu họ có các tác vụ suy luận phức tạp hơn. Trung tâm dữ liệu phù hợp hơn cho những trường hợp sử dụng có giá trị hơn của khách hàng.
Lưu ý rằng chúng tôi coi GPU cấp độ người tiêu dùng phù hợp cho các bản demo cũng như các cá nhân và người khởi nghiệp có thể chấp nhận độ tin cậy thấp hơn. Tuy nhiên, những khách hàng này có giá trị thấp hơn, vì vậy chúng tôi tin rằng DePIN được tùy chỉnh cho doanh nghiệp Web2 sẽ có giá trị hơn về lâu dài. Do đó, dự án GPU DePIN đã phát triển từ việc chủ yếu sử dụng phần cứng cấp độ người tiêu dùng trong những ngày đầu thành việc có sẵn A100/H100 và cấp cụm.
Thực tế – Các trường hợp sử dụng thực tế của tiền điện tử x AI
Bây giờ chúng ta thảo luận về các trường hợp sử dụng mang lại lợi ích thực sự. Đây là những chiến thắng thực sự và Crypto x AI có thể mang lại giá trị rõ ràng.
Lợi ích số 1: Phục vụ khách hàng Web2
McKinsey ước tính rằng trong 63 trường hợp sử dụng được phân tích, AI có thể tạo ra doanh thu tương đương từ 2,6 nghìn tỷ USD đến 4,4 nghìn tỷ USD hàng năm – so với tổng GDP năm 2021 của Vương quốc Anh là 3,1 nghìn tỷ USD. Điều này sẽ tăng tác động của AI lên 15% đến 40%. Nếu chúng ta tính đến tác động của AI tổng quát được nhúng vào phần mềm hiện được sử dụng cho các nhiệm vụ khác ngoài trường hợp sử dụng, thì tác động được ước tính sẽ tăng gần gấp đôi.
Nếu bạn thực hiện phép toán dựa trên các ước tính trên, điều này có nghĩa là tổng giá trị thị trường toàn cầu của AI (ngoài AI có thể tạo ra) có thể lên tới hàng chục nghìn tỷ đô la. Để so sánh, tổng giá trị của tất cả các loại tiền điện tử (bao gồm Bitcoin và tất cả các loại tiền thay thế) ngày nay chỉ khoảng 2,7 nghìn tỷ USD. Vì vậy, hãy đối mặt với điều này: đại đa số khách hàng cần AI trong thời gian ngắn sẽ là khách hàng của Web2, bởi vì những khách hàng của Web3 thực sự cần AI sẽ chỉ là một phần nhỏ trong số 2,7 nghìn tỷ đô la này (coi BTC là thị trường, bản thân Bitcoin là Bitcoin). không yêu cầu/sử dụng AI).
Các trường hợp sử dụng Web3 AI chỉ mới bắt đầu và chưa rõ thị trường sẽ lớn đến mức nào. Nhưng có một điều chắc chắn – nó sẽ chỉ chiếm một phần nhỏ thị trường Web2 trong tương lai gần. Chúng tôi tin rằng Web3 AI vẫn còn tương lai tươi sáng, nhưng điều này chỉ có nghĩa là ứng dụng mạnh mẽ nhất của Web3 AI hiện đang phục vụ khách hàng Web2.
Các ví dụ giả thuyết về khách hàng Web2 có thể hưởng lợi từ Web3 AI:
- Xây dựng một công ty phần mềm chuyên ngành dọc, tập trung vào AI ngay từ đầu (ví dụ: Cedar.ai hoặc Observe.ai)
- Các doanh nghiệp lớn tinh chỉnh các mô hình cho mục đích riêng của họ (ví dụ: Netflix)
- Các nhà cung cấp AI đang phát triển nhanh chóng (ví dụ: Anthropic)
- Các công ty phần mềm tích hợp AI vào các sản phẩm hiện có (ví dụ Canva)
Đây là vai trò khách hàng tương đối ổn định vì khách hàng thường lớn và có giá trị. Họ khó có thể sớm ngừng kinh doanh và họ đại diện cho những khách hàng tiềm năng khổng lồ cho các dịch vụ AI. Các dịch vụ Web3 AI phục vụ khách hàng Web2 sẽ được hưởng lợi từ lượng khách hàng ổn định này.
Nhưng tại sao khách hàng Web2 lại muốn sử dụng ngăn xếp Web3? Phần còn lại của bài viết này giải thích tình huống này.
Lợi ích số 2: Giảm chi phí sử dụng GPU với GPU DePIN
GPU DePIN tổng hợp sức mạnh tính toán GPU chưa được sử dụng đúng mức, sức mạnh đáng tin cậy nhất trong số đó đến từ các trung tâm dữ liệu và cung cấp khả năng suy luận AI. Một sự tương tự đơn giản cho vấn đề này là “Airbnb trong GPU”.
Lý do khiến chúng tôi hào hứng với GPU DePIN là vì, như đã đề cập ở trên, do thiếu chip NVIDIA và hiện có những chu kỳ GPU bị lãng phí có thể được sử dụng để suy luận AI. Những chủ sở hữu phần cứng này có chi phí chìm và thiết bị hiện không được sử dụng đúng mức, vì vậy những GPU một phần này có thể được cung cấp với chi phí thấp hơn nhiều so với hiện trạng vì điều này thực sự “kiếm tiền” cho chủ sở hữu phần cứng.
Những ví dụ bao gồm:
- Máy AWS. Nếu hôm nay bạn thuê H100 từ AWS, bạn sẽ phải cam kết hợp đồng thuê 1 năm vì nguồn cung thị trường có hạn. Điều này gây lãng phí vì bạn có thể không sử dụng GPU 7 ngày một tuần, 365 ngày một năm.
- Phần cứng khai thác Filecoin. Filecoin có nguồn cung được trợ giá lớn nhưng nhu cầu thực tế không lớn. Filecoin chưa bao giờ tìm thấy sản phẩm thực sự phù hợp với thị trường, vì vậy những người khai thác Filecoin có nguy cơ ngừng kinh doanh. Những máy này được trang bị GPU và có thể được tái sử dụng cho các tác vụ suy luận AI cấp thấp.
- Phần cứng khai thác ETH. Khi Ethereum chuyển từ PoW sang PoS, điều này nhanh chóng giải phóng rất nhiều phần cứng có thể được tái sử dụng cho hoạt động suy luận AI.
Lưu ý rằng không phải phần cứng GPU nào cũng phù hợp với suy luận AI. Một lý do rõ ràng cho điều này là các GPU cũ hơn không có đủ dung lượng bộ nhớ GPU cần thiết cho LLM, mặc dù đã có một số cải tiến thú vị có thể trợ giúp về vấn đề này. Ví dụ: công nghệ của Exabits có thể tải các nơ-ron hoạt động vào bộ nhớ GPU và các nơ-ron không hoạt động vào bộ nhớ CPU. Họ dự đoán tế bào thần kinh nào cần hoạt động/không hoạt động. Điều này cho phép các GPU cấp thấp xử lý khối lượng công việc AI ngay cả với bộ nhớ GPU hạn chế. Điều này làm cho GPU cấp thấp trở nên hữu ích hơn cho hoạt động suy luận của AI.
Web3 AI DePIN sẽ cần phát triển sản phẩm của mình theo thời gian và cung cấp các dịch vụ cấp doanh nghiệp như đăng nhập một lần, tuân thủ SOC 2, thỏa thuận cấp độ dịch vụ (SLA), v.v. Điều này tương tự với những gì các nhà cung cấp dịch vụ đám mây hiện tại cung cấp cho khách hàng Web2.
Lợi ích số 3: Các mô hình chống kiểm duyệt để tránh tình trạng tự kiểm duyệt của OpenAI
Có rất nhiều cuộc thảo luận về kiểm duyệt AI. Ví dụ: Thổ Nhĩ Kỳ đã tạm thời cấm OpenAI (sau đó OpenAI đã cải thiện việc tuân thủ và họ đã thay đổi cách tiếp cận). Chúng tôi tin rằng việc kiểm duyệt cấp quốc gia thật nhàm chán vì các quốc gia cần áp dụng AI để duy trì tính cạnh tranh.
OpenAI cũng tiến hành tự kiểm duyệt. Ví dụ: OpenAI sẽ không xử lý nội dung NSFW. OpenAI cũng sẽ không dự đoán cuộc bầu cử tổng thống tiếp theo. Chúng tôi nghĩ rằng các trường hợp sử dụng AI không chỉ thú vị mà còn là một thị trường khổng lồ, nhưng là một thị trường mà OpenAI sẽ không chạm tới vì lý do chính trị.
Nguồn mở là một giải pháp tuyệt vời vì kho lưu trữ Github không bị ảnh hưởng bởi các cổ đông hoặc ban giám đốc. Một ví dụ là Venice.ai, hứa hẹn sự riêng tư và hoạt động theo cách chống kiểm duyệt. Web3 AI có thể nâng nó lên một tầm cao mới một cách hiệu quả bằng cách hỗ trợ các mô hình phần mềm nguồn mở (OSS) này trên các cụm GPU chi phí thấp hơn để thực hiện suy luận. Chính vì những lý do này mà chúng tôi tin rằng OSS + Web3 là sự kết hợp lý tưởng để mở đường cho AI chống kiểm duyệt.
Lợi ích số 4: Tránh gửi thông tin nhận dạng cá nhân tới OpenAI
Các doanh nghiệp lớn có những lo ngại về quyền riêng tư đối với dữ liệu nội bộ của họ. Đối với những khách hàng này, việc tin tưởng một bên thứ ba OpenAI sở hữu dữ liệu này có thể khó khăn.
Trong Web3, có vẻ còn đáng lo ngại hơn (bề ngoài) đối với các công ty này khi dữ liệu nội bộ của họ đột nhiên xuất hiện trên web phi tập trung. Tuy nhiên, có những đổi mới trong công nghệ nâng cao quyền riêng tư cho AI:
Môi trường thực thi đáng tin cậy (TEE) như Super Protocol
Mã hóa hoàn toàn đồng hình (FHE) như Fhenix.io (một công ty danh mục đầu tư của quỹ do Hack VC quản lý) hoặc Inco Network (cả hai đều được cung cấp bởi Zama.ai), cũng như PPML của Bagel
Những công nghệ này vẫn đang phát triển và hiệu suất tiếp tục được cải thiện với Zero Knowledge (ZK) và FHE ASIC sắp ra mắt. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp đồng thời tinh chỉnh mô hình. Khi các giao thức này xuất hiện, Web3 có thể trở thành một địa điểm hấp dẫn hơn cho điện toán AI bảo vệ quyền riêng tư.
Lợi ích số 5: Tận dụng những cải tiến mới nhất trong mô hình nguồn mở
Phần mềm nguồn mở đã chiếm lĩnh thị phần của phần mềm độc quyền trong vài thập kỷ qua. Chúng tôi xem LLM như một dạng phần mềm độc quyền nào đó có khả năng phá vỡ PMNM. Những ví dụ đáng chú ý về những kẻ thách thức bao gồm Llama, RWKV và Mistral.ai. Danh sách này chắc chắn sẽ phát triển theo thời gian (bạn có thể tìm thấy danh sách đầy đủ hơn tại Openrouter.ai). Bằng cách tận dụng Web3 AI (được hỗ trợ bởi các mô hình OSS), mọi người có thể đổi mới với những cải tiến mới này.
Chúng tôi tin rằng, theo thời gian, lực lượng lao động phát triển toàn cầu của nguồn mở kết hợp với các ưu đãi về tiền điện tử có thể thúc đẩy sự đổi mới nhanh chóng trong các mô hình nguồn mở cũng như các tác nhân và khuôn khổ được xây dựng dựa trên chúng. Một ví dụ về giao thức tác nhân AI là Theoriq. Theoriq tận dụng các mô hình OSS để tạo ra một mạng lưới kết nối các tác nhân AI có thể kết hợp được, có thể được tập hợp lại để tạo ra các giải pháp AI cấp cao hơn.
Lý do khiến chúng tôi tự tin vào điều này là vì trong quá khứ, hầu hết các đổi mới về “phần mềm dành cho nhà phát triển” đều bị OSS vượt mặt dần theo thời gian. Microsoft từng là công ty phần mềm độc quyền và hiện tại họ là công ty số một đóng góp cho Github. Có lý do cho điều đó, nếu bạn nhìn vào cách Databricks, PostGresSQL, MongoDB và những cơ sở dữ liệu khác đang phá vỡ các cơ sở dữ liệu độc quyền, thì đó là một ví dụ về OSS phá vỡ toàn bộ ngành công nghiệp, vì vậy tiền lệ ở đây khá hấp dẫn.
Tuy nhiên, có một vấn đề. Một điều khó khăn về các mô hình ngôn ngữ lớn nguồn mở (OSS LLM) là OpenAI đã bắt đầu ký kết các thỏa thuận cấp phép dữ liệu phải trả phí với một số tổ chức, chẳng hạn như Reddit và New York Times. Nếu xu hướng này tiếp tục, các mô hình ngôn ngữ lớn nguồn mở có thể trở nên khó cạnh tranh hơn do các rào cản tài chính trong việc thu thập dữ liệu. Nvidia có thể tăng cường đầu tư hơn nữa vào điện toán bí mật như một biện pháp hỗ trợ để chia sẻ dữ liệu một cách an toàn. Thời gian sẽ tiết lộ điều này diễn ra như thế nào.
Lợi ích số 6: Sự đồng thuận thông qua lấy mẫu ngẫu nhiên để cắt giảm chi phí hoặc thông qua bằng chứng ZK
Một trong những thách thức của suy luận AI Web3 là xác minh. Người ta cho rằng những người xác nhận có cơ hội gian lận kết quả của họ để kiếm phí, vì vậy việc xác thực các suy luận là một biện pháp quan trọng. Lưu ý rằng loại gian lận này thực sự chưa xảy ra vì khả năng suy luận của AI vẫn còn ở giai đoạn sơ khai, nhưng điều này là không thể tránh khỏi trừ khi các bước được thực hiện để hạn chế hành vi này.
Cách tiếp cận Web3 tiêu chuẩn là yêu cầu nhiều trình xác thực lặp lại cùng một thao tác và so sánh kết quả. Như đã đề cập trước đó, thách thức nổi bật mà vấn đề này phải đối mặt là do sự thiếu hụt chip Nvidia cao cấp hiện nay nên chi phí suy luận AI rất tốn kém. Vì Web3 có thể cung cấp khả năng suy luận với chi phí thấp hơn thông qua GPU DePIN không được sử dụng đúng mức nên việc tính toán dư thừa sẽ làm suy yếu nghiêm trọng đề xuất giá trị của Web3.
Một giải pháp hứa hẹn hơn là thực hiện bằng chứng ZK cho các tính toán suy luận AI ngoài chuỗi. Trong trường hợp này, bằng chứng ZK ngắn gọn có thể được xác minh để xác định xem mô hình có được đào tạo chính xác hay không hoặc suy luận có chạy chính xác hay không (được gọi là zkML). Ví dụ bao gồm Phòng thí nghiệm Modulus và ZKonduit. Do các hoạt động của ZK đòi hỏi nhiều tính toán nên hiệu suất của các giải pháp này vẫn còn ở giai đoạn sơ khai. Tuy nhiên, chúng tôi hy vọng tình hình sẽ được cải thiện với việc phát hành ASIC phần cứng ZK trong tương lai gần.
Hứa hẹn hơn là ý tưởng về phương pháp suy luận AI dựa trên lấy mẫu có phần “Lạc quan”. Trong mô hình này, chỉ một phần nhỏ kết quả do người xác thực tạo ra được xác minh, nhưng chi phí kinh tế của việc cắt giảm được đặt đủ cao để nếu bị bắt, sẽ có sự ngăn cản kinh tế mạnh mẽ đối với người xác thực gian lận. Bằng cách này bạn tiết kiệm được những tính toán dư thừa.
Một ý tưởng đầy hứa hẹn khác là các giải pháp tạo hình mờ và lấy dấu vân tay, chẳng hạn như giải pháp được Bagel Network đề xuất. Điều này tương tự như cơ chế mà Amazon Alexa sử dụng để cung cấp sự đảm bảo chất lượng mô hình AI trong thiết bị cho hàng triệu thiết bị của mình.
Lợi ích số 7: Tiết kiệm với OSS (Lợi nhuận của OpenAI)
Cơ hội tiếp theo mà Web3 mang đến cho AI là dân chủ hóa chi phí. Cho đến nay, chúng ta đã thảo luận về việc tiết kiệm chi phí GPU thông qua DePIN. Nhưng Web3 cũng mang đến cơ hội tiết kiệm lợi nhuận trên các dịch vụ AI Web2 tập trung (chẳng hạn như OpenAI, tính đến thời điểm viết bài này có doanh thu hàng năm hơn 1 tỷ USD). Những khoản tiết kiệm chi phí này xuất phát từ thực tế là việc sử dụng các mô hình OSS thay vì các mô hình độc quyền sẽ đạt được mức tiết kiệm bổ sung vì những người tạo mô hình không cố gắng kiếm lợi nhuận.
Nhiều mô hình OSS sẽ vẫn hoàn toàn miễn phí, mang lại lợi ích kinh tế tốt nhất cho khách hàng. Nhưng có thể có một số mô hình OSS cũng đang thử các phương pháp kiếm tiền này. Hãy xem xét rằng chỉ có 4% tổng số người mẫu trên Ôm Mặt được đào tạo bởi các công ty có kinh phí để trợ cấp cho người mẫu. 96% mô hình còn lại được cộng đồng đào tạo. Nhóm này (96% Ôm Mặt) có chi phí thực tế cơ bản (bao gồm chi phí tính toán và chi phí dữ liệu). Do đó, những mô hình này sẽ cần phải được kiếm tiền theo một cách nào đó.
Có một số đề xuất để kiếm tiền từ mô hình phần mềm nguồn mở. Một trong những điều thú vị nhất là khái niệm “phát hành mô hình ban đầu”, nhằm mã hóa chính mô hình, giữ lại một phần mã thông báo cho nhóm và chuyển một số doanh thu trong tương lai từ mô hình đến chủ sở hữu mã thông báo, mặc dù chắc chắn có một số Rào cản pháp lý và quy định.
Các mô hình OSS khác sẽ cố gắng kiếm tiền từ việc sử dụng. Lưu ý rằng nếu điều này trở thành hiện thực, mô hình OSS có thể bắt đầu trông ngày càng giống mô hình kiếm tiền từ Web2 của nó. Nhưng trên thực tế, thị trường sẽ được chia thành hai phần, một số mẫu còn lại hoàn toàn miễn phí.
Lợi ích số 8: Nguồn dữ liệu phi tập trung
Một trong những thách thức lớn nhất mà AI phải đối mặt là tìm ra dữ liệu phù hợp để đào tạo mô hình. Chúng tôi đã đề cập trước đó rằng việc đào tạo AI phi tập trung có những thách thức. Nhưng còn việc sử dụng một trang web phi tập trung để lấy dữ liệu (sau đó có thể được sử dụng để đào tạo ở nơi khác, ngay cả ở các địa điểm Web2 truyền thống) thì sao?
Đó chính xác là những gì các công ty khởi nghiệp như Grass đang làm. Grass là một mạng lưới phi tập trung bao gồm các “người thu thập dữ liệu”, những người đóng góp sức mạnh xử lý nhàn rỗi của máy móc vào các nguồn dữ liệu để cung cấp thông tin cho việc đào tạo các mô hình AI. Theo giả thuyết, ở quy mô lớn, nguồn dữ liệu này có thể hoạt động tốt hơn nỗ lực nguồn dữ liệu nội bộ của bất kỳ công ty nào nhờ sức mạnh của một mạng lưới lớn các nút được khuyến khích. Điều này không chỉ bao gồm việc nhận được nhiều dữ liệu hơn mà còn nhận được dữ liệu thường xuyên hơn để làm cho dữ liệu phù hợp và cập nhật hơn. Trên thực tế, không thể ngăn chặn đội quân quét dữ liệu phi tập trung vì chúng vốn đã phi tập trung và không cư trú trong một địa chỉ IP duy nhất. Họ cũng có một mạng có chức năng dọn dẹp và chuẩn hóa dữ liệu để nó rất hữu ích sau khi được thu thập.
Sau khi có dữ liệu, bạn cũng cần một vị trí để lưu trữ dữ liệu đó trên chuỗi và LLM được tạo bằng dữ liệu đó.
Lưu ý rằng vai trò của dữ liệu trong Web3 AI có thể thay đổi trong tương lai. Trạng thái hiện tại của LLM ngày nay là đào tạo trước mô hình bằng cách sử dụng dữ liệu và tinh chỉnh nó theo thời gian với nhiều dữ liệu hơn. Tuy nhiên, do dữ liệu trên Internet thay đổi theo thời gian thực nên những mô hình này luôn hơi lỗi thời. Vì vậy, những phản hồi mà LLM suy ra có phần không chính xác.
Định hướng tương lai có thể là một mô hình mới – dữ liệu “thời gian thực”. Ý tưởng là khi một mô hình ngôn ngữ lớn (LLM) được hỏi một câu hỏi suy luận, LLM có thể chuyển qua các gợi ý và đưa dữ liệu được thu thập lại từ Internet vào thời gian thực. Bằng cách này, LLM có thể sử dụng dữ liệu mới nhất. Grass đang làm việc về phần này.