Hack VC 合伙人:AI+Crypto 的 8 大真正优势 Hack VC 合伙人:AI+Crypto 的 8 大真正优势 Hack VC 合伙人:AI+Crypto 的 8 大真正优势 Hack VC 合伙人:AI+Crypto 的 8 大真正优势 Hack VC 合伙人:AI+Crypto 的 8 大真正优势 Hack VC 合伙人:AI+Crypto 的 8 大真正优势 Hack VC 合伙人:AI+Crypto 的 8 大真正优势 Hack VC 合伙人:AI+Crypto 的 8 大真正优势

Bài viết này được dịch máy
Xem bản gốc

Tác giả: Ed Roman, Đối tác quản lý tại Hack VC

Đã biên soạn: 1912212.eth , Tin tức tầm nhìn xa

AI + Crypto là một trong những lĩnh vực tiên phong thu hút nhiều sự chú ý trên thị trường crypto thời gian gần đây, chẳng hạn như đào tạo AI phi tập trung, GPU DePIN và mô hình AI chống kiểm duyệt.

Đằng sau những tiến bộ chói sáng này, chúng ta không khỏi đặt câu hỏi: Đây có phải là bước đột phá công nghệ thực sự hay chỉ là một điểm nóng nóng? Bài viết này sẽ xóa tan sương mù cho bạn, phân tích tầm nhìn crypto x AI và thảo luận về trong đó thách thức và cơ hội thực sự, đồng thời tiết lộ những thách thức và cơ hội nào là những lời hứa suông và những gì thực sự khả thi?

Tầm nhìn #1: Đào tạo AI phi tập trung

Vấn đề với việc đào tạo AI trên Chuỗi là nó yêu cầu giao tiếp và phối hợp tốc độ cao giữa các GPU vì mạng lưới thần kinh yêu cầu lan truyền ngược trong quá trình đào tạo. Nvidia có hai cải tiến cho việc này (NVLink và InfiniBand). Những công nghệ này giúp giao tiếp GPU siêu nhanh, nhưng chúng là những công nghệ chỉ hoạt động cục bộ và chỉ hoạt động với các cụm GPU (tốc độ trên 50 gigabit) nằm trong một trung tâm dữ liệu duy nhất.

Nếu một mạng phi tập trung được giới thiệu, tốc độ sẽ đột ngột chậm lại vài bậc do độ trễ và băng thông mạng tăng lên. So với thông lượng thu được từ kết nối tốc độ cao của Nvidia trong trung tâm dữ liệu, tốc độ này là không thể đối với các trường hợp sử dụng đào tạo AI.

Lưu ý rằng cũng có những đổi mới dưới đây có thể mang lại hy vọng cho tương lai:

  • Hoạt động đào tạo phân tán về InfiniBand đang diễn ra trên quy mô lớn vì chính NVIDIA đang hỗ trợ đào tạo không phải là người bản xứ được phân phối trên InfiniBand thông qua Thư viện Truyền thông Tập thể NVIDIA. Tuy nhiên, nó vẫn đang ở giai đoạn sơ khai nên chỉ báo về việc áp dụng vẫn chưa được xác định. Nút thắt của các quy luật vật lý về khoảng cách vẫn tồn tại nên việc đào tạo địa phương trên InfiniBand vẫn nhanh hơn nhiều.
  • Một số nghiên cứu mới đã được công bố về đào tạo phi tập trung đòi hỏi ít thời gian đồng bộ hóa giao tiếp hơn, điều này có thể khiến việc đào tạo phi tập trung trở nên thiết thực hơn trong tương lai.
  • Phân chia thông minh và lập kế hoạch đào tạo mô hình giúp cải thiện hiệu suất. Tương tự như vậy, các kiến ​​trúc mô hình mới có thể được thiết kế đặc biệt cho cơ sở hạ tầng phân tán trong tương lai (Gensyn đang tiến hành nghiên cứu trong các lĩnh vực này).

Phần dữ liệu của đào tạo cũng là một thách thức. Bất kỳ quá trình đào tạo AI nào cũng liên quan đến việc xử lý lượng lớn dữ liệu . Thông thường, các mô hình được đào tạo trên hệ thống lưu trữ dữ liệu an toàn tập trung với mở rộng và hiệu suất cao. Điều này đòi hỏi hàng terabyte dữ liệu phải được truyền và xử lý và đây không phải là chu kỳ một lần. Dữ liệu thường nhiễu và chứa nhiều lỗi nên phải được làm sạch và chuyển đổi thành định dạng có thể sử dụng được trước khi huấn luyện mô hình. Giai đoạn này bao gồm các nhiệm vụ lặp đi lặp lại như chuẩn hóa, lọc và xử lý các giá trị còn thiếu. Tất cả đều phải đối mặt với những thách thức nghiêm trọng trong một hoàn cảnh phi tập trung .

Phần dữ liệu huấn luyện cũng có tính lặp lại, không tương thích với Web3. AI mở đã trải qua lần nghìn lần lặp lại để đạt được kết quả. Trong đội ngũ AI, các kịch bản nhiệm vụ cơ bản nhất dữ liệu bao gồm xác định mục tiêu, chuẩn bị dữ liệu, phân tích và sắp xếp dữ liệu để rút nhận xét quan trọng và làm cho dữ liệu phù hợp để lập mô hình. Sau đó, phát triển mô hình học máy để giải quyết vấn đề đã xác định và xác thực hiệu suất của nó bằng cách sử dụng dữ liệu thử nghiệm. Quá trình này được lặp đi lặp lại: nếu mô hình hiện tại không hoạt động như mong đợi, các chuyên gia sẽ quay lại giai đoạn thu thập dữ liệu hoặc đào tạo mô hình để cải thiện kết quả. Hãy tưởng tượng rằng nếu quá trình này được thực hiện trong một hoàn cảnh phi tập trung , sẽ không dễ dàng để điều chỉnh các khung và công cụ tiên tiến nhất hiện có cho phù hợp với Web3.

Một vấn đề khác với việc đào tạo các mô hình AI trên Chuỗi là thị trường này kém thú vị hơn nhiều so với suy luận. Hiện nay, việc đào tạo các mô hình ngôn ngữ AI quy mô lớn đòi hỏi lượng lớn tài nguyên tính toán GPU. Về lâu dài, suy luận sẽ trở thành kịch bản ứng dụng chính của GPU. Hãy tưởng tượng xem có bao nhiêu mô hình ngôn ngữ quy mô lớn AI cần được đào tạo để đáp ứng nhu cầu toàn cầu. So với số lượng khách hàng sử dụng các mô hình này, cái nào nhiều hơn?

Giả định số 2: Sử dụng các phép tính suy luận AI quá dư thừa để đạt được sự đồng thuận

Một thách thức khác liên quan đến crypto và AI là xác minh tính chính xác của suy luận AI, bởi vì bạn không thể tin tưởng hoàn toàn vào một bên tập trung duy nhất để thực hiện các hoạt động suy luận và rủi ro là nút có thể hoạt động không phù hợp. Thử thách này không tồn tại trong Web2 AI vì không có hệ thống đồng thuận phi tập trung.

Giải pháp là tính toán dự phòng, cho phép nhiều nút lặp lại cùng một hoạt động suy luận AI, để nó có thể chạy trong hoàn cảnh không cần tin cậy và tránh các điểm lỗi duy nhất.

Tuy nhiên, vấn đề với phương pháp này là đang thiếu hụt trầm trọng chip AI cao cấp. Thời gian chờ đợi kéo dài hàng năm trời đối với chip NVIDIA cao cấp đã đẩy giá tăng . Nếu bạn yêu cầu thực hiện lại suy luận AI lần trên nhiều nút , thì việc này sẽ trở nên đắt hơn theo cấp số nhân, khiến nhiều dự án không thể thực hiện được.

Giả định số 3: Các trường hợp sử dụng AI dành riêng cho Web3 trong thời gian ngắn

Có ý kiến ​​​​cho rằng Web3 nên có các trường hợp sử dụng AI riêng dành riêng cho khách hàng Web3. Đây có thể là (ví dụ) giao thức Web3 sử dụng AI để đánh giá rủi ro cho nhóm DeFi, ví Web3 đề xuất giao thức mới cho người dùng dựa trên lịch sử ví hoặc trò chơi Web3 sử dụng AI để điều khiển nhân vật không phải người chơi (NPC).

Hiện tại, đây là một thị trường non trẻ (trong ngắn hạn) trong đó các trường hợp sử dụng vẫn đang được khám phá. Một số thách thức bao gồm:

  • Vì nhu cầu thị trường vẫn còn ở giai đoạn sơ khai nên cần có ít giao dịch AI tiềm năng hơn cho các trường hợp sử dụng gốc Web3.
  • Có ít khách hàng hơn, số lượng đơn đặt hàng của khách hàng Web3 ít hơn so với khách hàng Web2, do đó thị trường ít phi tập trung.
  • Bản thân khách hàng kém ổn định hơn vì họ là những công ty khởi nghiệp với ít vốn hơn và một số công ty khởi nghiệp có thể lụi tàn theo thời gian. Các nhà cung cấp dịch vụ Web3 AI phục vụ khách hàng Web3 có thể cần lấy lại một số cơ sở khách hàng của họ để thay thế những cơ sở khách hàng đã biến mất, khiến mở rộng việc kinh doanh trở nên vô cùng khó khăn.

Về lâu dài, chúng tôi rất lạc quan về các trường hợp sử dụng AI gốc Web3, đặc biệt khi AI Agent trở nên phổ biến hơn. Chúng tôi tưởng tượng rằng trong tương lai bất kỳ người dùng Web3 nào cũng sẽ có lượng lớn AI Agent để giúp họ hoàn thành nhiệm vụ của mình.

Tầm nhìn #4: GPU DePIN dành cho người tiêu dùng

Có nhiều mạng điện toán AI phi tập trung dựa vào GPU cấp độ người tiêu dùng thay vì trung tâm dữ liệu . GPU tiêu dùng lý tưởng cho nhiệm vụ suy luận AI cấp thấp hoặc các trường hợp sử dụng của người tiêu dùng trong đó độ trễ, thông lượng và độ tin cậy linh hoạt. Nhưng đối với các trường hợp sử dụng nghiêm túc của doanh nghiệp (phần lớn thị trường quan trọng), khách hàng cần mạng có độ tin cậy cao hơn so với máy gia đình và thường là GPU cao cấp hơn nếu họ có nhiệm vụ suy luận phức tạp hơn. Trung tâm dữ liệu phù hợp hơn cho những trường hợp sử dụng có giá trị hơn của khách hàng.

Lưu ý rằng chúng tôi cho rằng GPU cấp độ người tiêu dùng phù hợp cho các bản demo cũng như các cá nhân và người khởi nghiệp có thể chấp nhận độ tin cậy thấp hơn. Nhưng những khách hàng này có giá trị thấp hơn, vì vậy chúng tôi cho rằng DePIN được tùy chỉnh cho doanh nghiệp Web2 sẽ có giá trị hơn về lâu dài. Do đó, dự án GPU DePIN đã phát triển từ việc chủ yếu sử dụng phần cứng cấp độ người tiêu dùng trong những ngày đầu thành việc có sẵn A100/H100 và cấp cụm.

Thực tế – Các trường hợp sử dụng thực tế của crypto x AI

Bây giờ chúng ta thảo luận về các trường hợp sử dụng mang lại lợi ích thực sự. Đây là những chiến thắng thực sự crypto x AI có thể mang lại giá trị rõ ràng.

Lợi ích thực sự số 1: Phục vụ khách hàng Web2

McKinsey ước tính rằng trong 63 trường hợp sử dụng được phân tích, AI có thể tạo ra doanh thu nhập tương đương từ 2,6 nghìn tỷ USD đến 4,4 nghìn tỷ USD hàng năm - so với tổng GDP năm 2021 của Vương quốc Anh là 3,1 nghìn tỷ USD. Điều này sẽ tăng tác động của AI lên 15% đến 40%. Nếu chúng ta tính đến tác động của AI tổng quát được nhúng vào phần mềm hiện được sử dụng cho nhiệm vụ khác ngoài trường hợp sử dụng, thì tác động được ước tính sẽ tăng gần gấp đôi.

Nếu bạn thực hiện phép toán dựa trên các ước tính trên, điều này có nghĩa là tổng giá trị thị trường toàn cầu của AI (vượt qua AI có thể tạo ra) có thể lên tới hàng chục nghìn tỷ đô la. Để so sánh, tổng giá trị của tất cả crypto(bao gồm Bitcoin và tất cả Altcoin) ngày nay chỉ khoảng 2,7 nghìn tỷ USD. Vì vậy, hãy đối diện sự thật: đại đa số khách hàng cần AI trong thời gian ngắn sẽ là khách hàng của Web2, bởi vì những khách hàng của Web3 thực sự cần AI sẽ chỉ là một phần nhỏ trong số 2,7 nghìn tỷ đô la này (coi BTC là thị trường, bản thân Bitcoin là Bitcoin). không yêu cầu/sử dụng AI).

Các trường hợp sử dụng Web3 AI chỉ mới bắt đầu và chưa rõ thị trường sẽ lớn đến mức nào. Nhưng có một điều chắc chắn - nó sẽ chỉ chiếm một phần nhỏ thị trường Web2 trong tương lai gần. Chúng tôi tin rằng Web3 AI vẫn còn tương lai tươi sáng, nhưng điều này chỉ có nghĩa là ứng dụng mạnh mẽ nhất của Web3 AI hiện đang phục vụ khách hàng Web2.

Các ví dụ giả thuyết về khách hàng Web2 có thể hưởng lợi từ Web3 AI bao gồm:

  • Xây dựng một công ty phần mềm chuyên ngành dọc, tập trung vào AI ngay từ đầu (ví dụ: Cedar.ai hoặc Observe.ai)
  • Các doanh nghiệp lớn tinh chỉnh các mô hình cho mục đích riêng của họ (ví dụ: Netflix)
  • Các nhà cung cấp AI tăng trưởng nhanh (ví dụ: Anthropic)
  • Các công ty phần mềm tích hợp AI vào sản phẩm hiện có (như Canva)

Đây là nhân vật khách hàng tương đối ổn định vì khách hàng thường lớn và có giá trị. Họ khó có vỡ nợ và họ đại diện cho những khách hàng tiềm năng khổng lồ cho các dịch vụ AI. Các dịch vụ Web3 AI phục vụ khách hàng Web2 sẽ được hưởng lợi từ lượng khách hàng ổn định này.

Nhưng tại sao khách hàng Web2 lại muốn sử dụng ngăn xếp Web3? Phần còn lại của bài viết này giải thích tình huống này.

Lợi ích thực sự #2: Giảm chi phí sử dụng GPU với GPU DePIN

GPU DePIN tổng hợp sức mạnh tính toán GPU chưa được sử dụng đúng mức, sức mạnh đáng tin cậy nhất trong đó đến từ các trung tâm dữ liệu và cung cấp khả năng suy luận AI. Một phương pháp đơn giản cho vấn đề này là "Airbnb trong GPU".

Lý do khiến chúng tôi hào hứng với GPU DePIN là vì, như đã đề cập ở trên, do thiếu chip NVIDIA và hiện đang có những chu kỳ GPU bị lãng phí có thể được sử dụng để suy luận AI. Những chủ sở hữu phần cứng này trả giá chi phí chìm và thiết bị hiện không được sử dụng đúng mức, vì vậy những GPU một phần này có thể được cung cấp với chi phí thấp hơn nhiều so với hiện trạng vì điều này thực sự "kiếm tiền" cho chủ sở hữu phần cứng.

Những ví dụ bao gồm:

  • Máy AWS. Nếu hôm nay bạn thuê H100 từ AWS, bạn sẽ phải cam kết hợp đồng thuê 1 năm vì nguồn cung thị trường có hạn. Điều này tạo ra sự lãng phí vì bạn có thể sẽ không sử dụng GPU 7 ngày một tuần, 365 ngày một năm.
  • Phần cứng khai thác Filecoin . Filecoin có nguồn cung trợ cấp lượng lớn nhưng nhu cầu thực tế không lượng lớn. Filecoin chưa bao giờ tìm thấy sản phẩm thực sự phù hợp với thị trường, vì vậy thợ đào Filecoin có rủi ro vỡ nợ . Những máy này được trang bị GPU có thể được tái sử dụng cho nhiệm vụ suy luận AI cấp thấp.
  • Phần cứng khai thác ETH. Khi Ethereum chuyển từ PoW sang PoS, điều này nhanh chóng giải phóng lượng lớn phần cứng có thể được sử dụng lại cho suy đoán AI.

Lưu ý rằng không phải phần cứng GPU nào cũng phù hợp với suy luận AI. Một lý do rõ ràng cho điều này là các GPU cũ hơn không có đủ dung lượng bộ nhớ GPU cần thiết cho LLM, mặc dù đã có một số cải tiến thú vị có thể trợ giúp về vấn đề này. Ví dụ: công nghệ của Exabits có thể tải các nơ-ron hoạt động vào bộ nhớ GPU và các nơ-ron không hoạt động vào bộ nhớ CPU. Họ dự đoán tế bào thần kinh nào cần hoạt động/không hoạt động. Điều này cho phép các GPU cấp thấp xử lý khối lượng công việc AI ngay cả với bộ nhớ GPU hạn chế. Điều này làm cho GPU cấp thấp trở nên hữu ích hơn cho hoạt động suy luận của AI.

Web3 AI DePIN cần phát triển sản phẩm của mình theo thời gian và cung cấp các dịch vụ cấp doanh nghiệp như đăng nhập một lần, tuân thủ SOC 2, thỏa thuận cấp độ dịch vụ (SLA), v.v. Điều này tương tự với những gì các nhà cung cấp dịch vụ đám mây hiện tại cung cấp cho khách hàng Web2.

Lợi ích thực sự #3: Các mô hình chống kiểm duyệt để tránh tình trạng tự kiểm duyệt của OpenAI

Có rất nhiều cuộc thảo luận về kiểm duyệt AI. Ví dụ: Thổ Nhĩ Kỳ đã tạm thời cấm Open AI (sau này Open AI đã cải thiện việc tuân thủ và họ đã thay đổi cách tiếp cận). Chúng tôi cho rằng việc kiểm duyệt cấp quốc gia không thú vị vì các quốc gia cần áp dụng AI để duy trì tính cạnh tranh.

AI mở cũng tiến hành tự kiểm duyệt. Ví dụ: Open AI sẽ không xử lý nội dung NSFW. AI mở cũng sẽ không dự đoán được cuộc bầu cử tổng thống tiếp theo. Chúng tôi cho rằng các trường hợp sử dụng AI không chỉ thú vị mà còn là một thị trường khổng lồ, mà là một thị trường mà Open AI sẽ không chạm tới vì lý do chính trị.

Mã nguồn mở là một giải pháp tuyệt vời vì kho lưu trữ Github không bị ảnh hưởng bởi các cổ đông hoặc ban giám đốc. Một ví dụ là Venice.ai, hứa hẹn sự riêng tư và hoạt động theo cách chống kiểm duyệt. Web3 AI có thể nâng nó lên một tầm cao mới một cách hiệu quả bằng cách hỗ trợ các mô hình phần mềm mã nguồn mở(OSS) này trên các cụm GPU chi phí thấp hơn để thực hiện suy luận. Chính vì những lý do này mà chúng tôi tin rằng OSS + Web3 là sự kết hợp lý tưởng để mở đường cho AI chống kiểm duyệt.

Lợi ích thực sự số 4: Tránh gửi thông tin nhận dạng cá nhân tới OpenAI

Các doanh nghiệp lớn có những lo ngại về quyền riêng tư đối với dữ liệu nội bộ của họ. Đối với những khách hàng này, việc tin tưởng một bên thứ ba OpenAI sở hữu dữ liệu này có thể khó khăn.

Trong Web3, có vẻ còn đáng lo ngại hơn (bề ngoài) đối với các công ty này khi dữ liệu nội bộ của họ đột nhiên xuất hiện trên web phi tập trung. Tuy nhiên, có những đổi mới trong công nghệ nâng cao quyền riêng tư cho AI:

Hoàn cảnh thực thi đáng tin cậy (TEE), chẳng hạn như Siêu giao thức

Crypto hoàn toàn đồng hình (FHE), chẳng hạn như Fhenix.io (một công ty danh mục đầu tư của quỹ do Hack VC quản lý) hoặc Inco Network (cả hai đều được cung cấp bởi Zama.ai), cũng như PPML của Bagel

Những công nghệ này vẫn đang phát triển và hiệu suất tiếp tục được cải thiện với Zero Knowledge (ZK) và FHE ASIC sắp ra mắt. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp đồng thời tinh chỉnh mô hình. Khi các giao thức này xuất hiện, Web3 có thể trở thành một địa điểm hấp dẫn hơn cho điện toán AI bảo vệ quyền riêng tư.

Lợi ích thực sự #5: Tận dụng những cải tiến mới nhất trong mô hình mã nguồn mở

Phần mềm mã nguồn mở đã chiếm lĩnh thị thị phần của phần mềm độc quyền trong vài thập kỷ qua. Chúng tôi xem LLM như một dạng phần mềm độc quyền nào đó có khả năng phá vỡ PMNM. Những ví dụ đáng chú ý về những kẻ thách thức bao gồm Llama, RWKV và Mistral.ai. Danh sách này chắc chắn sẽ tăng trưởng theo thời gian (bạn có thể tìm thấy danh sách đầy đủ hơn tại Openrouter.ai). Bằng cách tận dụng Web3 AI (được hỗ trợ bởi các mô hình OSS), mọi người có thể đổi mới với những cải tiến mới này.

Chúng tôi tin rằng, theo thời gian, lực lượng lao động phát triển toàn cầu của mã nguồn mở kết hợp với khích lệ crypto có thể thúc đẩy sự đổi mới nhanh chóng trong các mô hình mã nguồn mở cũng như các tác nhân và khuôn khổ được xây dựng dựa trên chúng. Một ví dụ về giao thức AI Agent là Theoriq. Theoriq tận dụng các mô hình OSS để tạo ra một mạng lưới liên kết AI Agent có thể kết hợp được, có thể được tập hợp lại để tạo ra các giải pháp AI cấp cao hơn.

Sở dĩ chúng tôi tự tin về điều này là vì trước đây, theo thời gian, hầu hết những đổi mới trong “phần mềm dành cho nhà phát triển” đều dần bị OSS vượt qua. Microsoft từng là công ty phần mềm độc quyền và hiện tại họ là công ty số một đóng góp cho Github. Có lý do cho điều đó, nếu bạn nhìn vào cách Databricks, PostGresSQL, MongoDB và những thứ khác Sự lật đổ các cơ sở dữ liệu độc quyền, thì đó là một ví dụ về OSS Sự lật đổ toàn bộ ngành công nghiệp, vì vậy tiền lệ ở đây khá hấp dẫn.

Tuy nhiên, trong đó một vấn đề. Một điều khó khăn về các mô hình ngôn ngữ lớn mã nguồn mở(OSS LLM) là OpenAI đã bắt đầu ký kết các thỏa thuận cấp phép dữ liệu phải trả phí với một số tổ chức, chẳng hạn như Reddit và New York Times. Nếu xu hướng này tiếp tục, các mô hình ngôn ngữ lớn mã nguồn mở có thể trở nên khó cạnh tranh hơn do các rào cản tài chính trong việc thu thập dữ liệu. Nvidia có thể tăng cường đầu tư hơn nữa vào điện toán bí mật như một biện pháp hỗ trợ để chia sẻ dữ liệu một cách an toàn. Thời gian sẽ tiết lộ điều này diễn ra như thế nào.

Lợi ích thực sự #6: Sự đồng thuận thông qua lấy mẫu ngẫu nhiên để cắt giảm chi phí hoặc thông qua bằng chứng ZK

Một trong những thách thức của suy luận AI Web3 là xác minh. Người ta cho rằng những người xác nhận có cơ hội gian lận kết quả của họ để kiếm phí, vì vậy việc xác thực các suy luận là một biện pháp quan trọng. Lưu ý rằng loại gian lận này thực sự chưa xảy ra vì khả năng suy luận của AI vẫn còn ở giai đoạn sơ khai, nhưng điều này là không thể tránh khỏi trừ khi các bước được thực hiện để hạn chế hành vi này.

Phương pháp Web3 tiêu chuẩn là yêu cầu nhiều trình xác thực lặp lại cùng một thao tác và so sánh kết quả. Như đã đề cập trước đó, thách thức nổi bật mà vấn đề này phải đối mặt là do sự thiếu hụt chip Nvidia cao cấp hiện nay nên chi phí suy luận AI rất tốn kém. Vì Web3 có thể cung cấp khả năng suy luận với chi phí thấp hơn thông qua GPU DePIN không được sử dụng đúng mức nên việc tính toán dư thừa sẽ làm suy yếu nghiêm trọng đề xuất giá trị của Web3.

Một giải pháp hứa hẹn hơn là thực hiện bằng chứng ZK cho các tính toán suy luận AI ngoài Chuỗi. Trong trường hợp này, bằng chứng ZK ngắn gọn có thể được xác minh để xác định xem mô hình có được đào tạo chính xác hay không hoặc suy luận có chạy chính xác hay không (được gọi là zkML). Ví dụ bao gồm Modulus Labs và ZK onduit. Do các hoạt động của ZK đòi hỏi nhiều tính toán nên hiệu suất của các giải pháp này vẫn còn ở giai đoạn sơ khai. Tuy nhiên, chúng tôi hy vọng tình hình sẽ được cải thiện với việc phát hành ASIC phần cứng ZK trong tương lai gần.

Hứa hẹn hơn là ý tưởng về một phương pháp suy luận AI dựa trên lấy mẫu có phần "lạc quan". Trong mô hình này, chỉ một phần kết quả do người xác thực tạo ra được xác minh, nhưng chi phí kinh tế của việc cắt giảm được đặt đủ cao để nếu bị bắt, sẽ có sự ngăn cản kinh tế mạnh mẽ đối với người xác thực gian lận. Bằng cách này bạn tiết kiệm được những tính toán dư thừa.

Một ý tưởng đầy hứa hẹn khác là các giải pháp tạo hình mờ và lấy dấu vân tay, chẳng hạn như giải pháp được Bagel Network đề xuất. Điều này tương tự như cơ chế mà Amazon Alexa sử dụng để cung cấp sự đảm bảo chất lượng mô hình AI trong thiết bị cho hàng triệu thiết bị của mình.

Lợi ích thực sự số 7: Tiết kiệm với OSS (Lợi nhuận của OpenAI)

Cơ hội tiếp theo mà Web3 mang đến cho AI là dân chủ hóa chi phí. Cho đến nay, chúng ta đã thảo luận về việc tiết kiệm chi phí GPU thông qua DePIN. Nhưng Web3 cũng mang đến cơ hội tiết kiệm hệ số biên lợi nhuận trên các dịch vụ AI Web2 tập trung (chẳng hạn như Open AI, tính đến viết bài này có thu nhập hàng năm hơn 1 tỷ USD). Những khoản tiết kiệm chi phí này xuất phát từ thực tế là việc sử dụng các mô hình OSS thay vì các mô hình độc quyền sẽ đạt được mức tiết kiệm bổ sung vì những người tạo mô hình không cố gắng kiếm lợi nhuận.

Nhiều mô hình OSS sẽ vẫn hoàn toàn miễn phí, mang lại lợi ích kinh tế tốt nhất cho khách hàng. Nhưng có thể có một số mô hình OSS cũng đang thử phương pháp kiếm tiền này. Hãy xem xét rằng chỉ có 4% tổng số người mẫu trên Ôm Mặt được đào tạo bởi các công ty có kinh phí để trợ cấp cho người mẫu. 96% mô hình còn lại được cộng đồng đào tạo. Nhóm này (96% Ôm Mặt) có chi phí thực tế cơ bản (bao gồm chi phí tính toán và chi phí dữ liệu). Do đó, những mô hình này sẽ cần phải được kiếm tiền theo một cách nào đó.

Có một số đề xuất để kiếm tiền từ mô hình phần mềm mã nguồn mở. Trong đó những điều thú vị nhất là khái niệm “phát hành mô hình ban đầu”, nhằm token hóa chính mô hình, giữ lại một phần token cho đội ngũ và chuyển một số thu nhập trong tương lai từ mô hình đến người nắm giữ token , mặc dù chắc chắn có một số Rào cản pháp lý và quy định.

Các mô hình OSS khác sẽ cố gắng kiếm tiền từ việc sử dụng. Lưu ý rằng nếu điều này trở thành hiện thực, mô hình OSS có thể bắt đầu trông ngày càng giống mô hình kiếm tiền từ Web2 của nó. Nhưng trên thực tế, thị trường sẽ được chia thành hai phần, một số mẫu còn lại hoàn toàn miễn phí.

Lợi ích thực sự số 8: Nguồn dữ liệu phi tập trung

Một trong những thách thức lớn nhất mà AI phải đối mặt là tìm ra dữ liệu phù hợp để đào tạo mô hình. Chúng tôi đã đề cập trước đó phi tập trung có những thách thức. Nhưng còn việc sử dụng một trang web phi tập trung để lấy dữ liệu (sau đó có thể được sử dụng để đào tạo ở nơi khác, ngay cả ở các địa điểm Web2 truyền thống) thì sao?

Đó chính xác là những gì các công ty khởi nghiệp như Grass đang làm. Grass là một mạng lưới phi tập trung bao gồm các "người thu thập dữ liệu ", những người đóng góp sức mạnh xử lý nhàn rỗi của máy móc vào các nguồn dữ liệu để cung cấp thông tin cho việc đào tạo các mô hình AI. Theo giả thuyết, nhìn lên quy mô lớn, nguồn dữ liệu này có thể hoạt động tốt hơn nỗ lực nguồn dữ liệu nội bộ của bất kỳ công ty nào nhờ sức mạnh của một mạng lưới lớn nút khích lệ . Điều này không chỉ bao gồm việc nhận được nhiều dữ liệu hơn mà còn nhận được dữ liệu thường xuyên hơn để làm cho dữ liệu phù hợp hơn và cập nhật hơn. Trên thực tế, không thể ngăn chặn đội quân quét dữ liệu phi tập trung vì chúng vốn phi tập trung và không cư trú trong một địa chỉ IP duy nhất. Họ cũng có một mạng có chức năng dọn dẹp và chuẩn hóa dữ liệu để nó rất hữu ích sau khi dữ liệu thu thập.

Khi bạn có dữ liệu, bạn cũng cần một vị trí để lưu trữ dữ liệu đó trên Chuỗi và các LLM được tạo bằng dữ liệu đó.

Lưu ý rằng vai trò của dữ liệu trong Web3 AI có thể thay đổi trong tương lai. Ngày nay, hiện trạng của LLM là đào tạo trước mô hình bằng cách sử dụng dữ liệu và hoàn thiện mô hình đó theo thời gian với nhiều dữ liệu hơn. Tuy nhiên, do dữ liệu trên Internet thay đổi theo thời gian thực nên những mô hình này luôn hơi lỗi thời. Vì vậy, phản hồi mà LLM suy đoán có phần không chính xác.

Hướng đi trong tương lai có thể là một mô hình mới - dữ liệu"thời gian thực". Ý tưởng là khi một mô hình ngôn ngữ lớn (LLM) được hỏi một câu hỏi suy luận, LLM có thể chuyển qua các gợi ý và đưa dữ liệu dữ liệu thu thập lại từ Internet vào thời gian thực. Bằng cách này, LLM có thể sử dụng dữ liệu mới nhất. Grass đang làm việc về phần này.

Đặc biệt cảm ơn những người sau đây đã phản hồi và giúp đỡ bài viết này: Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận