Phân tích những thách thức tiềm ẩn và thực tế của việc kết hợp AI và crypto

Bài viết này được dịch máy
Xem bản gốc

Tác giả: @ed_roman; Trình biên dịch: Blockchain bản địa

Gần đây, trí tuệ nhân tạo đã trở thành một trong những lĩnh vực hấp dẫn và hứa hẹn nhất trên thị trường crypto. bao gồm:

  • Đào tạo AI phi tập trung

  • Mạng cơ sở hạ tầng vật lý phi tập trung GPU

  • Các mô hình AI không bị kiểm duyệt Đây có phải là những bước phát triển mang tính đột phá hay chỉ là sự cường điệu?

Tại @hack_vc, chúng tôi đang cố gắng vượt qua sương mù và tách lời hứa ra khỏi thực tế. Bài viết này sẽ cung cấp phân tích chuyên sâu về những ý tưởng hàng đầu crypto và AI. Hãy cùng nhau khám phá những thách thức và cơ hội thực sự.

1. Những thách thức khi kết hợp Web3 và AI

1. Đào tạo AI phi tập trung

Vấn đề với việc đào tạo AI trên Chuỗi là việc đào tạo đòi hỏi sự giao tiếp và phối hợp tốc độ cao giữa các GPU vì mạng lưới thần kinh cần thực hiện lan truyền ngược khi đào tạo. Nvidia cung cấp hai công nghệ tiên tiến cho việc này (NVLink và InfiniBand). Những kỹ thuật này có thể tăng tốc đáng kể giao tiếp GPU, nhưng chúng chỉ có thể được sử dụng trong một cụm GPU trong một trung tâm dữ liệu duy nhất (tốc độ vượt quá 50 Gbps).

Nếu mạng phi tập trung được giới thiệu, tốc độ sẽ chậm hơn đáng kể do độ trễ và băng thông mạng tăng lên. Điều này đơn giản là không khả thi đối với các trường hợp sử dụng đào tạo AI so với kết nối tốc độ cao mà Nvidia cung cấp trong các trung tâm dữ liệu . Ngoài ra, băng thông mạng và chi phí lưu trữ cao hơn nhiều trong hoàn cảnh phi tập trung so với SSD trong cụm cục bộ.

Một vấn đề khác với việc đào tạo các mô hình AI trên Chuỗi là thị trường này kém hấp dẫn hơn so với suy luận. Hiện nay, lượng lớn tài nguyên tính toán GPU được sử dụng để đào tạo các mô hình ngôn ngữ lớn AI (LLM). Nhưng về lâu dài, suy luận sẽ trở thành kịch bản ứng dụng chính của GPU. Hãy thử nghĩ xem: Cần đào tạo bao nhiêu mô hình ngôn ngữ AI lớn để đáp ứng nhu cầu? Để so sánh, có bao nhiêu khách hàng sẽ sử dụng những mô hình này?

Lưu ý rằng đã có một số đổi mới trong lĩnh vực này có thể mang lại hy vọng cho tương lai của hoạt động đào tạo AI trên Chuỗi:

1) Đào tạo phân tán dựa trên InfiniBand đang được thực hiện trên quy mô lớn và bản thân NVIDIA cũng hỗ trợ đào tạo phân tán phi cục bộ thông qua thư viện truyền thông chung của mình. Tuy nhiên, điều này vẫn đang ở giai đoạn đầu và việc áp dụng vẫn còn phải chờ xem. Nút thắt do khoảng cách vật lý vẫn tồn tại nên việc đào tạo InfiniBand tại địa phương vẫn nhanh hơn đáng kể.

2) Một số nghiên cứu mới đã được công bố nhằm khám phá việc đào tạo phi tập trung làm giảm số lượng đồng bộ hóa truyền thông, điều này có thể khiến việc đào tạo phi tập trung trở nên thiết thực hơn trong tương lai.

3) Phân đoạn thông minh và lập kế hoạch đào tạo có thể giúp cải thiện hiệu suất. Tương tự như vậy, có thể có những kiến ​​trúc mô hình mới được thiết kế dành riêng cho cơ sở hạ tầng phân tán trong tương lai (Gensyn đang tiến hành nghiên cứu trong các lĩnh vực này).

4) Sự đổi mới như Neuromesh cố gắng đạt được đào tạo phân tán với chi phí thấp hơn thông qua một phương pháp mới gọi là mạng mã hóa dự đoán (PCN).

2. Lặp lại dữ liệu AI phi tập trung

Phần thông tin dữ liệu của quá trình đào tạo cũng là một vấn đề. Bất kỳ quá trình đào tạo AI nào cũng liên quan đến việc xử lý lượng lớn dữ liệu. Thông thường, các mô hình được đào tạo trên các hệ thống lưu trữ dữ liệu tập trung và an toàn, có mở rộng và hiệu suất cao. Điều này yêu cầu truyền và xử lý hàng terabyte dữ liệu và không phải là chu kỳ một lần. Dữ liệu thường nhiễu và chứa nhiều lỗi nên trước khi huấn luyện mô hình, dữ liệu phải được làm sạch và chuyển đổi sang định dạng có thể sử dụng được. Giai đoạn này bao gồm các nhiệm vụ lặp đi lặp lại như chuẩn hóa, lọc và xử lý các giá trị bị thiếu. Trong một hoàn cảnh phi tập trung , những điều này đặt ra những thách thức nghiêm trọng.

Phần thông tin dữ liệu của quá trình đào tạo cũng lặp đi lặp lại, không tương thích với Web3. OpenAI phải mất hàng nghìn lần lặp lại mới đạt được kết quả như mong muốn. Quá trình đào tạo được lặp đi lặp lại: nếu mô hình hiện tại không hoạt động như mong đợi, các chuyên gia sẽ quay lại giai đoạn thu thập dữ liệu hoặc đào tạo mô hình để cải thiện kết quả. Bây giờ, hãy tưởng tượng thực hiện quy trình này trong một hoàn cảnh phi tập trung , nơi các khung và công cụ tốt nhất hiện có không có sẵn trong Web3.

Một công nghệ đầy hứa hẹn là 0g.ai (được hỗ trợ bởi Hack VC), chúng cung cấp cơ sở hạ tầng lưu trữ dữ liệu và dữ liệu sẵn có trên Chuỗi . Chúng có kiến ​​trúc nhanh hơn và khả năng lưu trữ lượng lớn dữ liệu trên Chuỗi .

3. Sử dụng các phép tính lý luận AI quá dư thừa để đạt được sự đồng thuận

Một thách thức của việc kết hợp crypto với AI là xác minh tính chính xác của suy luận AI, bởi vì bạn không thể tin tưởng hoàn toàn vào một bên tập trung duy nhất để thực hiện các hoạt động suy luận và có khả năng nút hoạt động sai. Trong AI của Web2, thách thức này không tồn tại vì không có hệ thống đồng thuận phi tập trung.

Một giải pháp là điện toán dự phòng, trong đó nhiều nút lặp lại các hoạt động suy luận AI giống nhau để hoạt động trong hoàn cảnh không tin cậy và tránh các điểm lỗi duy nhất.

Vấn đề với phương pháp này là chúng ta đang sống trong một thế giới thiếu hụt nghiêm trọng chip AI cao cấp. Thời gian chờ đợi của chip NVIDIA cao cấp kéo dài tới vài năm khiến giá thành tăng . Nếu bạn cũng yêu cầu thực hiện suy luận AI lần liên tục trên nhiều nút , điều này sẽ làm tăng đáng kể các chi phí đắt đỏ này. Đối với nhiều dự án, điều này sẽ không hiệu quả.

4. Các trường hợp sử dụng AI dành riêng cho Web3 (trong thời gian ngắn)

Có ý kiến ​​​​cho rằng Web3 nên có các trường hợp sử dụng AI riêng dành riêng cho khách hàng Web3.

Hiện tại, đây vẫn là một thị trường mới nổi và các trường hợp sử dụng vẫn đang được khám phá. Một số thách thức bao gồm:

  • Các trường hợp sử dụng gốc Web3 yêu cầu ít giao dịch AI hơn vì nhu cầu thị trường vẫn còn sơ khai.

  • Có ít khách hàng hơn vì khách hàng của Web3 có đơn đặt hàng nhỏ hơn khách hàng của Web2 nên thị trường ít bị phân mảnh hơn.

  • Bản thân khách hàng cũng chưa đủ ổn định vì là những startup có ít vốn nên những startup này có thể vỡ nợ theo thời gian. Các nhà cung cấp dịch vụ AI nhắm đến khách hàng Web3 có thể cần phải có lại một số khách hàng theo thời gian để thay thế những khách vỡ nợ , khiến mở rộng việc kinh doanh trở nên khó khăn hơn.

Về lâu dài, chúng tôi rất lạc quan về các trường hợp sử dụng AI gốc Web3, đặc biệt khi các tác nhân AI trở nên phổ biến hơn. Chúng tôi hình dung ra một tương lai trong đó mọi người dùng Web3 sẽ có nhiều tác nhân AI hỗ trợ họ. Người dẫn đầu ban đầu trong lĩnh vực này là Theoriq.ai, công ty đang xây dựng một nền tảng gồm các tác nhân AI có thể kết hợp được, có khả năng phục vụ các máy khách Web2 và Web3 (được hỗ trợ bởi Hack VC).

5. Mạng cơ sở hạ tầng vật lý phi tập trung GPU cấp độ người tiêu dùng (DePIN)

Có nhiều mạng điện toán AI phi tập trung dựa vào GPU cấp độ người tiêu dùng thay vì GPU của trung tâm dữ liệu. GPU cấp độ người tiêu dùng phù hợp cho nhiệm vụ suy luận AI cấp thấp hoặc các trường hợp sử dụng của người tiêu dùng với các yêu cầu về độ trễ, thông lượng và độ tin cậy linh hoạt hơn. Nhưng đối với các trường hợp sử dụng nghiêm túc của doanh nghiệp (tức là những trường hợp chiếm thị thị phần lớn), khách hàng mong đợi mạng đáng tin cậy hơn máy gia đình và nhiệm vụ suy luận phức tạp thường yêu cầu GPU cao cấp hơn. Đối với những trường hợp sử dụng khách hàng có giá trị hơn này, trung tâm dữ liệu sẽ phù hợp hơn.

Điều quan trọng cần lưu ý là chúng tôi cho rằng GPU cấp độ người tiêu dùng phù hợp cho mục đích trình diễn hoặc những cá nhân và công ty khởi nghiệp có thể chịu được độ tin cậy thấp hơn. Nhưng giá trị của những khách hàng này về cơ bản thấp hơn, vì vậy chúng tôi cho rằng rằng Mạng cơ sở hạ tầng vật lý phi tập trung(DePIN) dành cho doanh nghiệp Web2 sẽ có giá trị hơn về lâu dài. Do đó, các dự án GPU DePIN có tiếng thường phát triển từ việc chủ yếu sử dụng phần cứng cấp độ người tiêu dùng trong những ngày đầu đến hiện có A100/H100 và tính khả dụng ở cấp độ cụm.

2. Các trường hợp sử dụng thực tế và khả thi của crypto x AI

Bây giờ, hãy thảo luận về các trường hợp sử dụng trong đó Crypto AI có thể tăng giá trị đáng kể.

Lợi nhuận thực tế 1: Phục vụ khách hàng Web2

McKinsey ước tính rằng AI tạo ra có thể mang lại giá trị gia tăng từ 2,6 nghìn tỷ USD đến 4,4 nghìn tỷ USD hàng năm trong 63 trường hợp sử dụng mà họ đã phân tích – so với tổng GDP của Vương quốc Anh vào năm 2021 là 3,1 nghìn tỷ USD. Điều này sẽ làm tăng tác động của tất cả AI từ 15% đến 40%. Giá trị ước tính này sẽ tăng gấp đôi nếu chúng ta nhúng AI tổng quát vào phần mềm hiện đang được sử dụng cho nhiệm vụ khác.

Một cách thú vị:

  • Dựa trên các ước tính trên, điều này có nghĩa là tổng giá trị thị trường của AI toàn cầu (không chỉ AI thế hệ) có thể lên tới hàng chục nghìn tỷ đô la.

  • Để so sánh, tổng giá trị của tất cả crypto(bao gồm Bitcoin và tất cả Altcoin) cộng lại ngày nay chỉ khoảng 2,7 nghìn tỷ USD.

Vì vậy, hãy thực tế: đại đa số khách hàng cần AI trong thời gian ngắn sẽ là khách hàng của Web2, bởi vì những khách hàng của Web3 thực sự cần AI chỉ là một phần nhỏ trong thị trường 2,7 nghìn tỷ này (coi BTC chiếm một nửa thị trường). thị phần và bản thân BTC không yêu cầu/sử dụng AI).

Các trường hợp sử dụng AI của Web3 chỉ mới bắt đầu và chưa rõ thị trường sẽ lớn đến mức nào. Nhưng có một điều chắc chắn về mặt trực giác - trong tương lai gần, nó sẽ chỉ là một phần của thị trường Web2. Chúng tôi tin rằng Web3 AI vẫn còn tương lai tươi sáng, nhưng điều này có nghĩa là ứng dụng phổ biến nhất của Web3 AI hiện nay là phục vụ khách hàng Web2.

Ví dụ về những khách hàng Web2 có thể hưởng lợi từ Web3 AI bao gồm:

  • Các công ty phần mềm ngành dọc được xây dựng từ đầu với AI là cốt lõi (ví dụ: Cedar.ai hoặc Observe.ai)

  • Các doanh nghiệp lớn tinh chỉnh các mô hình cho mục đích riêng của họ (ví dụ: Netflix)

  • Các nhà cung cấp AI tăng trưởng nhanh (ví dụ: Anthropic)

  • Các công ty phần mềm bổ sung khả năng AI cho các sản phẩm hiện có (ví dụ: Canva)

Đây là lượng khách hàng tương đối ổn định vì lượng khách hàng này thường lớn và có giá trị cao. Họ khó có thể sớm ngừng vỡ nợ và đại diện cho một lượng khách hàng tiềm năng rất lớn đối với các dịch vụ AI. Các dịch vụ Web3 AI phục vụ khách hàng Web2 sẽ được hưởng lợi từ lượng khách hàng ổn định này.

Nhưng tại sao khách hàng Web2 lại muốn sử dụng ngăn xếp công nghệ Web3? Phần còn lại của bài viết này giải thích lý do này.

Lợi nhuận thực tế 2: Giảm chi phí sử dụng GPU thông qua Mạng cơ sở hạ tầng vật lý phi tập trung GPU (GPU DePIN)

GPU DePIN tập hợp sức mạnh tính toán GPU chưa được sử dụng đúng mức, trong đó đáng tin cậy nhất đến từ các trung tâm dữ liệu và cung cấp các tài nguyên này cho suy luận AI. Hãy nghĩ đơn giản về nó như “Airbnb của GPU” (tức là hợp tác tiêu thụ tài sản không được sử dụng đúng mức).

Lý do khiến chúng tôi hào hứng với GPU DePIN như đã đề cập ở trên, chủ yếu là do thiếu chip NVIDIA, hiện tại có nhiều chu trình GPU đang bị lãng phí và những tài nguyên này có thể được sử dụng để suy luận AI. Những chủ sở hữu phần cứng này đã giảm chi phí và hiện đang sử dụng không đúng mức thiết bị của họ, vì vậy, các chu trình GPU một phần này có thể được cung cấp với chi phí thấp hơn hiện trạng vì nó thực sự là một "cơ hội may mắn" đối với chủ sở hữu phần cứng.

Ví dụ cụ thể bao gồm:

1) Máy AWS: Nếu bạn thuê H100 từ AWS ngay hôm nay, bạn cần phải cam kết thuê nó trong ít nhất một năm vì thị trường đang khan hiếm. Điều này dẫn đến lãng phí vì bạn không thể sử dụng GPU của mình 7 ngày một tuần, 365 ngày một năm.

2) Phần cứng khai thác Filecoin : Mạng Filecoin có nguồn cung được trợ cấp lượng lớn, nhưng nhu cầu thực tế không lớn. Thật không may, Filecoin chưa bao giờ tìm được sản phẩm thực sự phù hợp với thị trường, vì vậy thợ đào Filecoin có nguy cơ phá sản. Những máy này được trang bị GPU có thể được tái sử dụng cho nhiệm vụ suy luận AI cấp thấp.

3) Phần cứng khai thác ETH: Khi ETH chuyển từ Bằng chứng công việc(PoW) sang Bằng chứng cổ phần(PoS), lượng lớn phần cứng sẽ ngay lập tức có sẵn, có thể được sử dụng lại cho mục đích suy luận AI.

Thị trường GPU DePIN có tính cạnh tranh cao, với nhiều người chơi cung cấp sản phẩm. Ví dụ Aethir, Exabits và Akash. Hack VC đã chọn hỗ trợ io.net, công ty cũng tổng hợp nguồn cung thông qua quan hệ đối tác với các DePIN GPU khác, vì vậy họ hiện hỗ trợ nguồn cung cấp GPU lớn nhất trên thị trường.

Điều quan trọng cần lưu ý là không phải tất cả phần cứng GPU đều phù hợp với suy luận AI. Một lý do rõ ràng là các GPU cũ hơn không có đủ bộ nhớ GPU để xử lý các mô hình ngôn ngữ lớn (LLM), mặc dù đã có một số cải tiến thú vị trong lĩnh vực này. Ví dụ: Exabits đã phát triển công nghệ để tải các nơ-ron hoạt động vào bộ nhớ GPU và các nơ-ron không hoạt động vào bộ nhớ CPU. Họ dự đoán tế bào thần kinh nào cần hoạt động/không hoạt động. Điều này cho phép khối lượng công việc AI được xử lý bằng GPU cấp thấp ngay cả với bộ nhớ GPU hạn chế. Điều này thực sự làm tăng tính hữu ích của GPU cấp thấp cho hoạt động suy luận AI.

Ngoài ra, Web3 AI DePIN sẽ cần nâng cao các dịch vụ của mình theo thời gian để cung cấp các dịch vụ cấp doanh nghiệp như đăng nhập một lần (SSO), tuân thủ SOC 2, thỏa thuận cấp độ dịch vụ (SLA), v.v. Điều này sẽ có thể so sánh với các dịch vụ đám mây mà khách hàng Web2 hiện đang yêu thích.

Lợi thế thực sự #3: Các mô hình không kiểm duyệt tránh được cơ chế tự kiểm duyệt của OpenAI

Đã có rất nhiều cuộc thảo luận về vấn đề kiểm duyệt AI. Ví dụ: Thổ Nhĩ Kỳ đã có thời điểm tạm thời cấm OpenAI (sau đó họ đã dỡ bỏ lệnh cấm sau khi OpenAI cải thiện khả năng tuân thủ của mình). Chúng tôi cho rằng việc giám sát ở cấp quốc gia này về cơ bản là không có cơ sở, vì các quốc gia cần áp dụng AI để duy trì tính cạnh tranh.

Điều thú vị hơn nữa là OpenAI tự kiểm duyệt. Ví dụ: OpenAI sẽ không xử lý nội dung NSFW (không phù hợp để xem tại nơi làm việc) cũng như không dự đoán kết quả của cuộc bầu cử tổng thống tiếp theo. Chúng tôi cho rằng có một thị trường thú vị và rộng lớn trong lĩnh vực ứng dụng AI mà OpenAI không muốn tham gia vì lý do chính trị.

Mã nguồn mở là một cách tuyệt vời để giải quyết vấn đề này vì kho lưu trữ Github không thuộc quyền sở hữu của các cổ đông hoặc ban giám đốc. Một ví dụ là Venice.ai, hứa hẹn bảo vệ quyền riêng tư của người dùng và hoạt động theo cách không kiểm duyệt. Tất nhiên, điều quan trọng là bản chất mã nguồn mở của nó, điều này khiến tất cả những điều này trở nên khả thi. Web3 AI có thể cải thiện điều này một cách hiệu quả bằng cách chạy các mô hình phần mềm mã nguồn mở(OSS) này trên các cụm GPU chi phí thấp để suy luận. Vì điều này, chúng tôi tin rằng OSS + Web3 là sự kết hợp lý tưởng để mở đường cho AI không bị kiểm duyệt.

Lợi ích thực sự số 4: Tránh gửi thông tin nhận dạng cá nhân tới OpenAI

Nhiều doanh nghiệp lớn lo ngại về quyền riêng tư đối với dữ liệu nội bộ của công ty họ. Đối với những khách hàng này, thật khó để tin tưởng một bên thứ ba tập trung như OpenAI sẽ xử lý dữ liệu này.

Đối với những doanh nghiệp này, việc sử dụng web3 có vẻ còn đáng sợ hơn khi dữ liệu nội bộ của họ đột nhiên xuất hiện trên một mạng phi tập trung. Tuy nhiên, đối với AI, đã có một số đổi mới trong công nghệ nâng cao quyền riêng tư:

Hoàn cảnh thực thi đáng tin cậy (TEE) như Super Protocol

Crypto hoàn toàn đồng hình (FHE) như Fhenix.io (một công ty danh mục đầu tư do Hack VC quản lý) hoặc Inco Network (cả hai đều được cung cấp bởi Zama.ai) và PPML của Bagel

Những công nghệ này vẫn đang phát triển và hiệu suất tiếp tục được cải thiện với các ASIC không kiến ​​thức (ZK) và FHE ASIC sắp ra mắt. Nhưng mục tiêu dài hạn là bảo vệ dữ liệu doanh nghiệp đồng thời tinh chỉnh mô hình. Khi các giao thức này xuất hiện, web3 có thể trở thành một địa điểm hấp dẫn hơn cho điện toán AI bảo vệ quyền riêng tư.

Lợi ích thực sự #5: Tận dụng những cải tiến mới nhất của mô hình mã nguồn mở

Trong vài thập kỷ qua, phần mềm mã nguồn mở(OSS) đã làm xói mòn thị thị phần của phần mềm độc quyền. Chúng tôi xem LLM như một phần mềm độc quyền tiên tiến đang trở thành mục tiêu Sự lật đổ cho phần mềm mã nguồn mở . Một số đối thủ đáng chú ý bao gồm Llama, RWKV và Mistral.ai. Danh sách này chắc chắn sẽ tăng trưởng theo thời gian (danh sách đầy đủ hơn có sẵn tại Openrouter.ai). Bằng cách tận dụng web3 AI được hỗ trợ bởi các mô hình mã nguồn mở, mọi người có thể tận dụng tối đa những cải tiến mới này.

Chúng tôi tin rằng, theo thời gian, lực lượng nỗ lực phát triển mã nguồn mở mở toàn cầu, kết hợp với khích lệ crypto , có thể thúc đẩy sự đổi mới nhanh chóng trong các mô hình mã nguồn mở cũng như các tác nhân và khuôn khổ được xây dựng trên chúng. Một ví dụ về giao thức tác nhân AI là Theoriq. Theoriq tận dụng các mô hình mã nguồn mở để tạo ra một mạng lưới các tác nhân AI được kết nối với nhau một cách tổng hợp có thể được tập hợp lại với nhau để tạo ra các giải pháp AI tiên tiến hơn.

Lý do chúng tôi tin tưởng mạnh mẽ như vậy là dựa trên kinh nghiệm trong quá khứ: hầu hết "phần mềm dành cho nhà phát triển" đã bị phần mềm mã nguồn mở vượt qua theo thời gian. Có lý do tại sao Microsoft từng là công ty phần mềm độc quyền và hiện là công ty đóng góp hàng đầu cho Github. Nếu bạn nhìn vào cách Databricks, PostGresSQL, MongoDB, v.v. đang Sự lật đổ cơ sở dữ liệu độc quyền, thì toàn bộ ngành là một ví dụ về việc bị phần mềm mã nguồn mở Sự lật đổ, vì vậy tiền lệ ở đây khá mạnh.

Tuy nhiên, có một nhược điểm nhỏ. Một vấn đề nhức nhối với OSS LLM là OpenAI đã bắt đầu ký các thỏa thuận cấp phép dữ liệu phải trả phí với các tổ chức, chẳng hạn như Reddit và New York Times. Nếu xu hướng này tiếp tục, các LLM OSS có thể ngày càng khó cạnh tranh do các rào cản kinh tế trong việc truy cập dữ liệu. NVIDIA có thể sử dụng điện toán bí mật như một công cụ nâng cao để chia sẻ dữ liệu an toàn. Thời gian sẽ cho biết điều này phát triển như thế nào.

Lợi ích thực sự #6: Sự đồng thuận thông qua lấy mẫu ngẫu nhiên tốn kém hoặc Bằng chứng không tri thức

Trong lý luận AI của web3, việc xác minh là một thách thức. Người xác minh có thể thu được phí bằng cách giả mạo kết quả, vì vậy việc xác minh suy luận là một biện pháp quan trọng. Điều quan trọng cần lưu ý là mặc dù lý luận AI vẫn còn ở giai đoạn sơ khai, nhưng sự lừa dối như vậy là không thể tránh khỏi trừ khi các bước được thực hiện để làm suy yếu động cơ khuyến khích hành vi đó.

Phương pháp web3 tiêu chuẩn là yêu cầu nhiều trình xác thực lặp lại cùng một thao tác và so sánh kết quả. Tuy nhiên, như đã đề cập trước đó, suy luận AI rất tốn kém do tình trạng thiếu chip Nvidia cao cấp hiện nay. Vì web3 có thể cung cấp khả năng suy luận với chi phí thấp hơn thông qua các DePIN GPU không được sử dụng đúng mức nên việc tính toán dư thừa sẽ làm suy yếu nghiêm trọng đề xuất giá trị của web3.

Một giải pháp hứa hẹn hơn là triển khai Bằng chứng không tri thức cho các tính toán suy luận AI ngoài Chuỗi . Trong trường hợp này, Bằng chứng không tri thức gọn có thể được xác minh để xác định xem mô hình đã được đào tạo chính xác hay suy luận có chạy chính xác hay không (được gọi là zkML). Trong đó bao gồm Phòng thí nghiệm Modulus và ZKonduit. Do các hoạt động không có kiến ​​thức đòi hỏi nguồn lực tính toán đáng kể nên hiệu suất của các giải pháp này vẫn còn ở giai đoạn sơ khai. Tuy nhiên, tình trạng này có thể được cải thiện với sự ra đời của ASIC phần cứng không có kiến ​​thức trong tương lai gần.

Một ý tưởng hứa hẹn hơn là phương pháp dựa trên lấy mẫu "lạc quan" đối với suy luận AI. Trong mô hình này, bạn chỉ cần xác thực một phần nhỏ kết quả do người xác nhận tạo ra, nhưng đặt chi phí kinh tế đủ cao để trừng phạt những người xác nhận bị bắt gian lận, từ đó tạo ra hiệu ứng cấm kinh tế mạnh mẽ. Bằng cách này, bạn sẽ lưu được các phép tính dư thừa (ví dụ: xem bài viết "Bằng chứng lấy mẫu" của Hyperbolic).

Một ý tưởng đầy hứa hẹn khác là giải pháp sử dụng công nghệ thủy ấn và lấy dấu vân tay, chẳng hạn như giải pháp do Bagel Network đề xuất. Điều này tương tự như cơ chế mà Amazon Alexa cung cấp để đảm bảo chất lượng cho các mô hình AI của mình trên hàng triệu thiết bị.

Lợi ích thực sự số 7: Tiết kiệm (Lợi nhuận của OpenAI) với các ngăn xếp phần mềm mã nguồn mở có thể kết hợp được

Cơ hội tiếp theo mà web3 mang lại cho AI là dân chủ hóa việc giảm chi phí. Cho đến nay chúng ta đã thảo luận về phương pháp tiết kiệm chi phí GPU thông qua DePIN như io.net. Tuy nhiên, web3 cũng mang đến cơ hội tiết kiệm hệ số biên lợi nhuận trên các dịch vụ AI web2 tập trung (chẳng hạn như OpenAI, có thu nhập hàng năm hơn 1 tỷ USD dựa trên thông tin tại thời điểm viết bài này). Những khoản tiết kiệm chi phí này đến từ việc sử dụng các mô hình phần mềm mã nguồn mở(OSS) thay vì các mô hình độc quyền, dẫn đến tiết kiệm chi phí bổ sung vì những người tạo mô hình không cố gắng kiếm lợi nhuận.

Nhiều mô hình phần mềm mã nguồn mở sẽ luôn miễn phí hoàn toàn, mang lại tính kinh tế tốt nhất cho khách hàng. Tuy nhiên, cũng có thể có một số mô hình phần mềm mã nguồn mở thử phương pháp kiếm tiền này. Hãy xem xét rằng chỉ có 4% người mẫu trên Ôm Mặt được đào tạo bởi các công ty có kinh phí để trợ cấp cho những người mẫu này (xem tại đây). 96% mô hình còn lại được cộng đồng đào tạo. Nhóm mô hình Ôm mặt 96% này phải đối mặt với chi phí thực tế (bao gồm chi phí tính toán và chi phí dữ liệu). Vì vậy, những mô hình này cần phải được kiếm tiền theo một cách nào đó.

Có rất nhiều đề xuất về việc kiếm tiền từ mô hình phần mềm mã nguồn mở này. Trong đó những điều thú vị nhất trong số này là khái niệm "Cung cấp mô hình ban đầu" (IMO), nghĩa là mã hóa chính mô hình, để lại một phần mã thông báo cho đội ngũ và chuyển một số thu nhập trong tương lai của mô hình sang mã thông báo chủ sở hữu, mặc dù rõ ràng trong đó một số rào cản pháp lý và quy định.

Các mô hình phần mềm mã nguồn mở khác sẽ cố gắng kiếm tiền dựa trên mức độ sử dụng. Cần lưu ý rằng nếu kịch bản này thành hiện thực, các mô hình phần mềm mã nguồn mở có thể bắt đầu trông ngày càng giống các đối tác tạo ra lợi nhuận web2 của chúng. Tuy nhiên, từ góc độ thực tế, thị trường sẽ được chia làm hai và một trong đó sẽ hoàn toàn miễn phí.

Sau khi chọn mô hình phần mềm mã nguồn mở, bạn có thể xây dựng các hệ thống phân cấp có thể tổng hợp trên mô hình đó. Ví dụ: bạn có thể sử dụng Ritual.net để suy luận AI và Theoriq.ai với tư cách là công ty dẫn đầu ban đầu về các tác nhân AI trên Chuỗi có thể tổng hợp và tự trị (cả hai đều được hỗ trợ bởi Hack VC).

Lợi ích thực sự số 8: Thu dữ liệu phi tập phi tập trung

Một trong những thách thức lớn nhất mà AI phải đối mặt là có được dữ liệu phù hợp để huấn luyện mô hình. Chúng tôi đã đề cập trước đó rằng có một số thách thức phi tập trung. Nhưng còn việc tận dụng web phi tập trung để lấy dữ liệu (sau đó có thể sử dụng dữ liệu này để đào tạo ở nơi khác, ngay cả trên nền tảng web2 truyền thống) thì sao?

Đó chính xác là những gì các công ty khởi nghiệp như Grass (được hỗ trợ bởi Hack VC) đang làm. Grass là mạng “thu thập dữ liệu ” phi tập trung , nơi các cá nhân đóng góp sức mạnh xử lý nhàn rỗi của máy để lấy dữ liệu cho việc đào tạo mô hình AI. Về lý thuyết, trong các ứng dụng quy mô lớn, loại thu thập dữ liệu này có thể vượt trội hơn so với nỗ lực nội bộ của bất kỳ công ty nào nhờ sức mạnh tính toán khổng lồ của một mạng lưới nút khích lệ rộng lớn. Điều này không chỉ bao gồm việc nhận được nhiều dữ liệu hơn mà còn nhận được dữ liệu thường xuyên hơn để làm cho dữ liệu phù hợp hơn và cập nhật hơn. Vì nút thu thập dữ liệu này có bản chất phi tập trung và không thuộc về một địa chỉ IP duy nhất nên gần như không thể ngăn chặn đội quân thu thập dữ liệu phi tập trung này. Ngoài ra, họ còn có một mạng lưới gồm những người dọn dẹp và chuẩn hóa dữ liệu để làm cho dữ liệu trở nên hữu ích sau khi được thu thập thông tin.

Sau khi có dữ liệu, bạn cũng cần một vị trí lưu trữ trên Chuỗi và LLM (Mô hình ngôn ngữ lớn) được tạo bằng dữ liệu đó. Về vấn đề này, 0g.AI là người dẫn đầu sớm. Đây là giải pháp lưu trữ web3 hiệu suất cao được tối ưu hóa cho AI, rẻ hơn đáng kể so với AWS (một thành công tài chính khác cho Web3 AI), đồng thời đóng vai trò là nền tảng sẵn có dữ liệu cho cơ sở lớp 2, AI, v.v.

Điều quan trọng cần lưu ý là vai trò của dữ liệu trong web3 AI có thể thay đổi trong tương lai. Hiện tại, hiện trạng của LLM là sử dụng dữ liệu để huấn luyện trước mô hình và cải thiện nó theo thời gian với nhiều dữ liệu hơn. Tuy nhiên, do dữ liệu trên Internet thay đổi theo thời gian thực nên các mô hình này luôn hơi lỗi thời nên phản hồi của suy luận LLM hơi không chính xác.

Một mô hình mới có thể phát triển trong tương lai là dữ liệu “thời gian thực”. Khái niệm này là khi LLM được yêu cầu suy luận, LLM có thể sử dụng dữ liệu bằng cách đưa vào đó dữ liệu được thu thập từ internet trong thời gian thực. Bằng cách này, LLM sẽ sử dụng dữ liệu mới nhất. Grass cũng đang nghiên cứu vấn đề này.

3. Kết luận

Chúng tôi hy vọng phân tích này hữu ích khi bạn nghĩ về triển vọng và thực tế của web3 AI. Đây chỉ là điểm khởi đầu để thảo luận và lĩnh vực này đang thay đổi nhanh chóng, vì vậy, hãy tham gia và bày tỏ quan điểm của bạn vì chúng ta muốn cùng nhau tiếp tục học hỏi và xây dựng.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận