Các khoản tài trợ số lượng lớn diễn ra thường xuyên. So sánh toàn diện sáu dự án cơ sở hạ tầng hàng đầu trong lĩnh vực Crypto x AI, ai có thể dẫn đầu?

avatar
ODAILY
2 ngày trước
Bài viết này được dịch máy
Xem bản gốc

Trong năm qua, việc kể chuyện bằng AI đã bùng nổ trên thị trường tiền điện tử, với các quỹ đầu tư mạo hiểm hàng đầu như a16z , Sequoia, Lightspeed và Polychain đầu tư hàng chục triệu đô la vào các vụ cá cược. Nhiều đội ngũ chất lượng cao có bối cảnh nghiên cứu khoa học và bối cảnh trường học danh tiếng cũng đã tham gia Web3 và đang hướng tới AI phi tập trung. Trong 12 tháng tới, chúng ta sẽ chứng kiến ​​việc triển khai dần dần các dự án chất lượng cao này.

Vào tháng 10 năm nay, OpenAI đã huy động được thêm 6,6 tỷ USD và cuộc chạy đua vũ trang trong lĩnh vực AI đã đạt đến đỉnh cao chưa từng có. Các nhà đầu tư nhà đầu tư bán lẻ hiếm khi có cơ hội kiếm tiền ngoài việc đầu tư trực tiếp vào NVIDIA và phần cứng. Sự nhiệt tình này chắc chắn sẽ tiếp tục lan rộng sang Crypto, đặc biệt là làn sóng người bắt chó gần đây do AI Meme thúc đẩy. Có thể thấy trước rằng Crypto x AI, cho dù đó là token báo được niêm yết hiện có hay dự án ngôi sao mới, vẫn sẽ có động lực mạnh mẽ.

Vì dự án AI phi tập trung hàng đầu Hyperbolic gần đây đã nhận được khoản đầu tư lần từ Polychain và Lightspeed, chúng tôi sẽ bắt đầu từ 6 dự án gần đây đã nhận được nguồn tài trợ quy mô lớn từ các tổ chức hàng đầu, sắp xếp bối cảnh phát triển của các dự án cơ sở hạ tầng Crypto x AI và mong muốn phi tập trung Làm thế nào công nghệ có thể bảo vệ nhân loại trong tương lai của AI.

  • Hyperbolic: Gần đây đã công bố hoàn thành khoản tài trợ Series A trị giá 12 triệu đô la Mỹ do Variant và Polychain đồng dẫn đầu, với tổng số tiền tài trợ hơn 20 triệu đô la Mỹ, Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures. , Samsung Next và sự tham gia của VC có tiếng khác.

  • PIN AI: Đã hoàn thành vòng tài trợ ban đầu trị Seed 10 triệu USD, với các khoản đầu tư từ các quỹ đầu tư mạo hiểm có tiếng như a16z CSX, Hack VC và Quỹ xây dựng Blockchain (Stanford Blockchain Accelerator ).

  • Vana: Đã hoàn thành 18 triệu USD trong vòng tài trợ Series A và 5 triệu USD trong vòng tài trợ chiến lược, với sự đầu tư từ các quỹ đầu tư mạo hiểm có tiếng như Paradigm, Polychain và Coinbase.

  • Sahara: Hoàn thành 43 triệu USD trong vòng tài trợ Series A, với khoản đầu tư có tiếng như Binance Labs, Pantera Capital và Polychain.

  • Aethir: Hoàn thành vòng tài trợ Pre-A trị giá 9 triệu đô la vào năm 2023 với mức định giá 150 triệu đô la và hoàn thành việc bán nút khoảng 120 triệu đô la vào năm 2024.

  • IO.NET: Đã hoàn thành 30 triệu đô la Mỹ trong vòng tài trợ Series A, với các khoản đầu tư từ các quỹ đầu tư mạo hiểm có tiếng như Hack VC, Delphi Digital và Foresight Ventures.

Ba yếu tố của AI: dữ liệu, tỷ lệ băm và thuật toán

Marx đã nói với chúng ta trong “Das Kapital” rằng tư liệu sản xuất, năng suất và quan hệ sản xuất là những yếu tố then chốt trong sản xuất xã hội. Nếu so sánh, chúng ta sẽ thấy rằng cũng có ba yếu tố chính trong thế giới trí tuệ nhân tạo.

Trong kỷ nguyên AI, tỷ lệ băm, dữ liệu và thuật toán là chìa khóa.

Trong AI, dữ liệu là phương tiện sản xuất. Ví dụ: bạn gõ và trò chuyện trên điện thoại di động hàng ngày, chụp ảnh và đăng lên Moments. Những văn bản và hình ảnh này đều là dữ liệu. Chúng giống như những “thành phần” của AI và là nền tảng để AI hoạt động.

Dữ liệu này bao gồm từ thông tin số có cấu trúc đến hình ảnh, âm thanh, video và văn bản không có cấu trúc. Không có dữ liệu, thuật toán AI không thể học hỏi và tối ưu hóa. Chất lượng, số lượng, mức độ bao phủ và tính đa dạng của dữ liệu ảnh hưởng trực tiếp đến hiệu suất của mô hình AI và xác định liệu nó có thể hoàn thành nhiệm vụ cụ thể một cách hiệu quả hay không.

Trong AI, tỷ lệ băm là năng suất. Tỷ lệ băm là tài nguyên tính toán cơ bản cần thiết để thực hiện các thuật toán AI. Tỷ lệ băm càng mạnh thì tốc độ xử lý dữ liệu càng nhanh và tốt hơn. Sức mạnh của tỷ lệ băm quyết định trực tiếp đến hiệu quả và khả năng của hệ thống AI.

Tỷ lệ băm mạnh mẽ không chỉ có thể rút ngắn thời gian đào tạo của mô hình mà còn hỗ trợ kiến ​​trúc mô hình phức tạp hơn, từ đó cải thiện mức độ thông minh của AI. Các mô hình ngôn ngữ lớn như ChatGPT của OpenAI phải mất nhiều tháng để đào tạo trên các cụm điện toán mạnh mẽ.

Trong AI, thuật toán là quan hệ sản xuất. Các thuật toán là cốt lõi của AI. Thiết kế của chúng xác định cách dữ liệu và tỷ lệ băm phối hợp với nhau và là chìa khóa để chuyển đổi dữ liệu thành các quyết định thông minh. Với sự hỗ trợ của tỷ lệ băm mạnh mẽ, các thuật toán có thể học tốt hơn các mẫu trong dữ liệu và áp dụng chúng vào các vấn đề thực tế.

Từ quan điểm này, dữ liệu tương đương với nhiên liệu của AI, tỷ lệ băm là động cơ của AI và thuật toán là linh hồn của AI. AI = dữ liệu+ tỷ lệ băm+ thuật toán Bất kỳ công ty khởi nghiệp nào muốn nổi bật trong đường đua AI đều phải có cả ba yếu tố hoặc thể hiện lợi thế dẫn đầu duy nhất ở một trong đó.

Khi AI đang phát triển theo hướng đa phương thức (các mô hình dựa trên nhiều dạng thông tin và có thể xử lý đồng thời văn bản, hình ảnh, âm thanh, v.v.), nhu cầu về tỷ lệ băm và dữ liệu sẽ chỉ tăng trưởng theo cấp số nhân.

Trong thời đại tỷ lệ băm khan hiếm, Crypto trao quyền cho AI

Sự xuất hiện của ChatGPT không chỉ tạo nên cuộc cách mạng về trí tuệ nhân tạo mà còn vô tình đẩy tỷ lệ băm và phần cứng tỷ lệ băm lên vị trí hàng đầu trong tìm kiếm công nghệ.

Sau “Cuộc chiến ngàn mô hình” năm 2023, năm 2024, khi hiểu biết của thị trường về các mô hình lớn AI tiếp tục ngày càng sâu sắc, cuộc cạnh tranh toàn cầu xung quanh các mô hình lớn đang được chia thành hai con đường: “nâng cao năng lực” và “phát triển kịch bản”.

Về việc cải thiện khả năng của mô hình lớn, kỳ vọng lớn nhất của thị trường là GPT-5, được đồn đại là sẽ được OpenAI phát hành trong năm nay. Người ta rất háo hức mong đợi rằng các mô hình lớn của nó sẽ được đẩy lên giai đoạn đa phương thức thực sự.

Về phát triển bối cảnh mô hình lớn, những gã khổng lồ AI đang thúc đẩy việc tích hợp nhanh hơn các mô hình lớn vào các kịch bản ngành để tạo ra giá trị ứng dụng. Ví dụ: những nỗ lực trong AI Agent, tìm kiếm AI và các lĩnh vực khác không ngừng tăng cường sử dụng các mô hình lớn để cải thiện trải nghiệm người dùng hiện có.

Đằng sau hai con đường này, chắc chắn có nhu cầu cao hơn về tỷ lệ băm. Việc cải thiện khả năng của mô hình lớn chủ yếu dựa trên đào tạo, đòi hỏi phải sử dụng tỷ lệ băm hiệu năng cao rất lớn trong thời gian ngắn; việc áp dụng các kịch bản mô hình lớn chủ yếu dựa trên suy luận và yêu cầu về hiệu suất đối với tỷ lệ băm tương đối thấp. , nhưng nhấn mạnh hơn vào tính ổn định và độ trễ thấp.

Như OpenAI ước tính vào năm 2018, kể từ năm 2012, tỷ lệ băm cần thiết để đào tạo các mô hình lớn đã tăng gấp đôi sau mỗi 3,5 tháng và tỷ lệ băm cần thiết đã tăng tới 10 lần mỗi năm. Đồng thời, khi các mô hình và ứng dụng lớn ngày càng được triển khai trong các kịch bản việc kinh doanh thực tế của doanh nghiệp, nhu cầu về tỷ lệ băm suy luận cũng ngày càng tăng.

Vấn đề là nhu cầu về GPU hiệu suất cao đang tăng trưởng nhanh trên toàn thế giới nhưng nguồn cung lại không theo kịp. Lấy chip H100 của Nvidia làm ví dụ, nó đã gặp phải tình trạng thiếu nguồn cung nghiêm trọng vào năm 2023, với khoảng cách nguồn cung lên tới hơn 430.000 chiếc. Chip B 100 sắp ra mắt, có hiệu suất tốt hơn 2,5 lần và chi phí chỉ cao hơn 25%, có khả năng sẽ lại gặp phải tình trạng thiếu nguồn cung. Sự mất cân bằng giữa cung và cầu này sẽ khiến chi phí tỷ lệ băm tăng trở lại, khiến nhiều doanh nghiệp vừa và nhỏ gặp khó khăn trong việc chi trả chi phí điện toán cao, từ đó hạn chế tiềm năng phát triển của họ trong lĩnh vực AI.

Các công ty công nghệ lớn như OpenAI, Google và Meta có khả năng thu thập tài nguyên mạnh mẽ hơn và có đủ tiền cũng như nguồn lực để xây dựng cơ sở hạ tầng tỷ lệ băm của riêng họ. Nhưng còn các công ty khởi nghiệp AI thì sao, chứ chưa nói đến những công ty chưa huy động được vốn?

Quả thực, việc mua GPU cũ trên eBay, Amazon và các nền tảng khác cũng là một phương pháp khả thi. Mặc dù chi phí giảm nhưng có thể có vấn đề về hiệu suất và chi phí sửa chữa lâu dài. Trong thời đại khan hiếm GPU này, việc xây dựng cơ sở hạ tầng có thể không bao giờ là giải pháp tối ưu cho các công ty khởi nghiệp.

Ngay cả khi có những nhà cung cấp đám mây GPU có thể thuê theo yêu cầu thì mức giá cao cũng là một thách thức lớn đối với họ. Ví dụ, giá của một chiếc NVIDIA A 100 là khoảng 80 USD mỗi ngày nếu bạn cần 50 GPU để chạy mỗi ngày. tháng, Trong 25 ngày, chỉ riêng chi phí về tỷ lệ băm đã lên tới 80 x 50 x 25 = 100.000 đô la Mỹ mỗi tháng.

Điều này mang lại cho mạng tỷ lệ băm phi tập trung dựa trên DePIN một cơ hội để tận dụng tình hình và có thể nói rằng nó diễn ra suôn sẻ. Giống như IO.NET, Aethir và Hyperbolic đã làm, họ chuyển chi phí cơ sở hạ tầng tỷ lệ băm của các công ty khởi nghiệp AI sang chính mạng. Và nó cho phép mọi người trên khắp thế giới kết nối GPU không sử dụng tại nhà với trong đó, giúp giảm đáng kể chi phí tính toán.

Aethir: Mạng chia sẻ GPU toàn cầu, giúp tỷ lệ băm trở nên phổ biến

Aethir đã hoàn thành vòng tài trợ Pre-A trị giá 9 triệu đô la Mỹ với mức định giá 150 triệu đô la Mỹ vào tháng 9 năm 2023 và hoàn thành việc bán nút Checker Node khoảng 120 triệu đô la Mỹ từ tháng 3 đến tháng 5 năm nay. Aethir kiếm được 60 triệu USD lợi nhuận từ việc bán Checker Node chỉ trong 30 phút, điều này cho thấy sự công nhận và kỳ vọng của thị trường đối với dự án.

Cốt lõi của Aethir là xây dựng mạng GPU phi tập trung để mọi người đều có cơ hội đóng góp tài nguyên GPU nhàn rỗi của mình và kiếm lợi nhuận. Nó giống như biến máy tính của mọi người thành một siêu máy tính nhỏ, nơi mọi người chia sẻ sức mạnh tính toán. Ưu điểm của việc này là nó có thể cải thiện đáng kể việc sử dụng GPU và giảm lãng phí tài nguyên. Nó cũng cho phép các công ty hoặc cá nhân yêu cầu lượng lớn sức mạnh tính toán có được các tài nguyên cần thiết với chi phí thấp hơn.

Aethir đã tạo ra một mạng DePIN phi tập trung hoạt động giống như một nguồn tài nguyên, khích lệ các trung tâm dữ liệu, studio trò chơi, công ty công nghệ và game thủ từ khắp nơi trên thế giới kết nối các GPU nhàn rỗi với trong đó . Các nhà cung cấp GPU này có thể tự do đưa GPU vào và ra khỏi mạng và do đó có mức sử dụng cao hơn so với khi chúng không hoạt động. Điều này cho phép Aethir cung cấp tài nguyên GPU ở cấp độ người tiêu dùng, cấp độ chuyên nghiệp và cấp độ trung tâm dữ liệu cho những người yêu cầu tỷ lệ băm với mức giá thấp hơn 80% so với các nhà cung cấp đám mây Web2.

Kiến trúc DePIN của Aethir đảm bảo chất lượng và tính ổn định của tỷ lệ băm phân tán này. Trong đó phần cốt lõi nhất là:

Container là đơn vị tính toán của Aethir, hoạt động như một máy chủ đám mây và chịu trách nhiệm thực thi và kết xuất các ứng dụng. Mỗi nhiệm vụ được gói gọn trong một Container độc lập như một hoàn cảnh tương đối biệt lập để chạy nhiệm vụ của khách hàng, tránh sự can thiệp lẫn nhau giữa nhiệm vụ .

Indexer chủ yếu được sử dụng để khớp và lên lịch ngay lập tức các tài nguyên tỷ lệ băm có sẵn theo yêu cầu nhiệm vụ . Đồng thời, cơ chế điều chỉnh tài nguyên động có thể phân bổ động tài nguyên cho nhiệm vụ khác nhau dựa trên tải của toàn mạng để đạt được hiệu suất tổng thể tốt nhất.

Checker chịu trách nhiệm giám sát và đánh giá hiệu suất của Container theo thời gian thực. Nó có thể theo dõi và đánh giá theo thời gian thực trạng thái của toàn bộ mạng và đưa ra phản hồi kịp thời cho các vấn đề bảo mật có thể xảy ra. Nếu bạn cần ứng phó với các sự cố bảo mật như tấn công mạng, sau khi phát hiện hành vi bất thường, bạn có thể kịp thời đưa ra cảnh báo và bắt đầu các biện pháp bảo vệ. Tương tự, khi xảy ra tình trạng tắc nghẽn hiệu suất mạng, Checker cũng có thể gửi lời nhắc kịp thời để sự cố được giải quyết kịp thời, đảm bảo chất lượng dịch vụ và tính bảo mật.

asZ5zzY4HcnSGGYaw8SrYVGEd68W0aRZqH5PxZZ9.png

Sự hợp tác hiệu quả giữa Container, Indexer và Checker mang đến cho khách hàng cấu hình tỷ lệ băm được tùy chỉnh tự do, trải nghiệm dịch vụ đám mây an toàn, ổn định và có mức giá tương đối thấp. Aethir là một giải pháp cấp thương mại tốt cho các lĩnh vực như AI và chơi game.

Nhìn chung, Aethir định hình lại việc phân bổ và sử dụng tài nguyên GPU thông qua DePIN, giúp tỷ lệ băm trở nên phổ biến và tiết kiệm hơn. Nó đã đạt được một số kết quả tốt trong lĩnh vực AI và trò chơi, đồng thời không ngừng mở rộng đối tác và ngành nghề việc kinh doanh. Tiềm năng phát triển trong tương lai là không giới hạn.

IO.NET: mạng siêu máy tính phân tán phá vỡ nút thắt tỷ lệ băm

IO.NET đã hoàn thành vòng tài trợ Series A trị giá 30 triệu USD vào tháng 3 năm nay, với các khoản đầu tư có tiếng như Hack VC, Delphi Digital và Foresight Ventures.

Tương tự như Aethir, nó xây dựng mạng điện toán phi tập trung cấp doanh nghiệp để cung cấp cho các công ty khởi nghiệp AI các dịch vụ tỷ lệ băm có giá thấp hơn, dễ kiếm hơn và linh hoạt hơn bằng cách thu thập các tài nguyên điện toán nhàn rỗi (GPU, CPU) trên toàn thế giới.

Khác với Aethir, IO.NET sử dụng Ray framework (IO-SDK) để chuyển đổi hàng ngàn cụm GPU thành một tổng thể phục vụ cho machine learning (Ray framework cũng được OpenAI sử dụng để train GPT-3). Các hạn chế về bộ nhớ CPU/GPU và quy trình xử lý tuần tự gây ra những trở ngại đáng kể khi đào tạo các mô hình lớn trên một thiết bị. Khung Ray được sử dụng để điều phối và xử lý hàng loạt nhằm đạt được nhiệm vụ tỷ lệ băm song song.

Để làm điều này, IO.NET sử dụng kiến ​​trúc nhiều lớp:

  • Lớp giao diện người dùng: Cung cấp cho người dùng giao diện trực quan, bao gồm trang web công cộng, khu vực khách hàng và khu vực nhà cung cấp GPU, nhằm mang lại trải nghiệm người dùng trực quan và thân thiện.

  • Lớp bảo mật: đảm bảo tính toàn vẹn và bảo mật của hệ thống, tích hợp bảo vệ mạng, xác thực người dùng, ghi nhật ký hoạt động và các cơ chế khác.

  • Lớp API: Là trung tâm liên lạc cho các trang web, nhà cung cấp và quản lý nội bộ, nó tạo điều kiện thuận lợi cho việc trao đổi dữ liệu và thực hiện các hoạt động khác nhau.

  • Lớp phụ trợ: Nó tạo thành cốt lõi của hệ thống và chịu trách nhiệm vận hành nhiệm vụ như quản lý cụm/GPU, tương tác với khách hàng và mở rộng tự động.

  • Lớp cơ sở dữ liệu: Chịu trách nhiệm lưu trữ và quản lý dữ liệu, bộ lưu trữ chính chịu trách nhiệm về dữ liệu có cấu trúc và bộ đệm được sử dụng để xử lý dữ liệu tạm thời.

  • Lớp nhiệm vụ: quản lý giao tiếp không đồng bộ và thực hiện nhiệm vụ để đảm bảo hiệu quả xử lý và lưu thông dữ liệu.

  • Lớp cơ sở hạ tầng: tạo thành nền tảng của hệ thống, bao gồm nhóm tài nguyên GPU, công cụ điều phối và nhiệm vụ thực thi/ML và được trang bị các giải pháp giám sát mạnh mẽ.

uzB131zbOZlIRhE4Ehhj7Em97Pbl3bJ4WNcHSB3p.jpeg

Nhìn lên, để giải quyết những khó khăn mà tỷ lệ băm phân tán gặp phải, IO.NET đã đưa ra kiến ​​trúc phân lớp của công nghệ cốt lõi IO-SDK, cũng như công nghệ đường hầm ngược và kiến ​​trúc VPN dạng lưới để giải quyết các kết nối an toàn và các vấn đề về quyền riêng tư dữ liệu. Nó phổ biến trong Web3 và được gọi là Filecoin tiếp theo, với một tương lai tươi sáng.

Nhìn chung, sứ mệnh cốt lõi của IO.NET là xây dựng cơ sở hạ tầng DePIN lớn nhất thế giới, tập hợp các tài nguyên GPU nhàn rỗi trên khắp thế giới và cung cấp hỗ trợ cho các lĩnh vực AI và máy học đòi hỏi lượng lớn tỷ lệ băm.

Hyperbolic: Tạo ra một “khu rừng nhiệt đới AI” để hiện thực hóa một hệ sinh thái cơ sở hạ tầng AI phân tán thịnh vượng và hỗ trợ lẫn nhau

Hôm nay, Hyperbolic một lần nữa thông báo rằng họ đã hoàn thành vòng tài trợ Series A với tổng trị giá hơn 12 triệu USD, do Variant và Polychain Capital đồng dẫn đầu, nâng tổng số tiền tài trợ lên hơn 20 triệu USD. Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures, Samsung Next và các tổ chức VC có tiếng khác đã tham gia đầu tư. Trong đó, các công ty đầu tư mạo hiểm hàng đầu ở Thung lũng Silicon là Polychain và LightSpeed ​​Faction đã tăng đầu tư lần thứ hai sau vòng hạt giống, điều này đủ để minh họa cho địa vị dẫn đầu của Hyperbolic trong lĩnh vực Web3 AI.

Sứ mệnh cốt lõi của Hyperbolic là cung cấp AI cho mọi người, với giá cả phải chăng cho nhà phát triển và giá cả phải chăng cho người sáng tạo. Hyperbolic nhằm mục đích xây dựng một “rừng nhiệt đới AI”, nơi các nhà phát triển có thể tìm thấy các tài nguyên cần thiết để đổi mới, cộng tác và phát triển trong hệ sinh thái của nó. Giống như rừng nhiệt đới tự nhiên, hệ sinh thái được kết nối với nhau, sôi động và có thể tái tạo, cho phép người sáng tạo khám phá không giới hạn.

Theo quan điểm của hai nhà đồng sáng lập Jasper và Yuchen, mặc dù các mô hình AI có thể là mã nguồn mở nhưng điều đó là chưa đủ nếu không có tài nguyên điện toán mở. Hiện nay, nhiều trung tâm dữ liệu lớn kiểm soát tài nguyên GPU, điều này khiến nhiều người muốn sử dụng AI nản lòng. Hyperbolic nhằm mục đích phá vỡ tình trạng này. Họ xây dựng cơ sở hạ tầng tỷ lệ băm DePIN bằng cách tích hợp các tài nguyên điện toán nhàn rỗi trên toàn thế giới để mọi người có thể dễ dàng sử dụng AI.

Vì vậy, Hyperbolic đã đưa ra khái niệm “đám mây AI mở”. Mọi thứ từ máy tính cá nhân đến trung tâm dữ liệu lớn đều có thể được kết nối với Hyperbolic để cung cấp tỷ lệ băm. Trên cơ sở đó, Hyperbolic tạo ra một lớp AI nâng cao quyền riêng tư, có thể kiểm chứng, cho phép các nhà phát triển xây dựng các ứng dụng AI với khả năng suy luận, trong khi tỷ lệ băm cần thiết đến trực tiếp từ đám mây AI.

vvGqL6oiEWxtmeNc6HPunPnCCVR82D1y5oizKK8n.jpeg

Tương tự như Aethir và IO.NET, đám mây AI của Hyperbolic có mô hình cụm GPU độc đáo của riêng mình, được gọi là "Cụm hệ thống năng lượng mặt trời". Như chúng ta đã biết, hệ mặt trời chứa nhiều hành tinh độc lập khác nhau như Sao Thủy và Sao Hỏa. Cụm hệ mặt trời của Hyperbolic quản lý, ví dụ: cụm Sao Thủy, cụm Sao Hỏa và cụm Sao Mộc. Các cụm GPU này có phạm vi sử dụng rộng rãi và kích thước khác nhau. nhưng được gửi đi độc lập với nhau bởi hệ mặt trời.

Mô hình như vậy đảm bảo cụm GPU đáp ứng được hai đặc điểm, linh hoạt hơn và tối đa hóa hiệu quả so với Aethir và IO.NET :

  • Điều chỉnh cân bằng trạng thái, cụm GPU sẽ tự động mở rộng hoặc thu nhỏ theo nhu cầu

  • Nếu một cụm bị gián đoạn, cụm Hệ Mặt trời sẽ tự động phát hiện và sửa chữa nó

cYTpzOtDQZhvLunUWUX1kAtCug93HnrCaHY6xW43.png

Trong thử nghiệm so sánh hiệu suất của mô hình ngôn ngữ lớn (LLM), thông lượng của cụm GPU Hyperbolic cao tới 43 token/s. Kết quả này không chỉ vượt quá 42 token/s của đội ngũ Together AI gồm 60 người. cũng cao hơn đáng kể so với 27 token/giây của HuggingFace, có hơn 300 thành viên đội ngũ.

Trong thử nghiệm so sánh tốc độ tạo hình của mô hình tạo hình ảnh, cụm GPU Hyperbolic cũng chứng minh rằng không nên đánh giá thấp sức mạnh kỹ thuật của nó. Cũng sử dụng mô hình tạo hình ảnh mã nguồn mở SOTA, Hyperbolic dẫn đầu với tốc độ tạo 17,6 hình ảnh/phút, không chỉ vượt quá 13,6 hình ảnh/phút của Together AI mà còn cao hơn nhiều so với 6,5 hình ảnh/phút của IO.NET.

Dữ liệu này chứng minh một cách mạnh mẽ rằng mô hình cụm GPU của Hyperbolic có hiệu suất cực cao và hiệu suất tuyệt vời khiến nó nổi bật giữa các đối thủ lớn hơn. Kết hợp với lợi thế về giá thành thấp, điều này khiến Hyperbolic rất phù hợp với các ứng dụng AI phức tạp yêu cầu hỗ trợ tỷ lệ băm cao, mang lại phản hồi gần như thời gian thực và đảm bảo mô hình AI có độ chính xác và hiệu quả cao hơn khi xử lý nhiệm vụ phức tạp.

18dMGh19ANlqj6Dc1EW4kvrDmFRDCnyFRrmqKu9T.png

Ngoài ra, từ góc độ đổi mới crypto, chúng tôi cho rằng thành tựu đáng chú ý nhất của Hyperbolic là phát triển cơ chế xác minh PoSP (Proof of Sampling, Sampling Proof), sử dụng phương pháp phi tập trung để giải quyết một trong những thách thức khó khăn nhất trong AI trường - xác minh xem đầu ra từ một mô hình được chỉ định có cho phép quá trình suy luận được phi tập trung một cách hiệu quả về mặt chi phí hay không.

GXtGNTgQrzS9SsfIqFPm1d1jItVhRsHnz3UfRORD.png

Dựa trên nguyên tắc PoSP, đội ngũ Hyperbolic đã phát triển cơ chế spML (máy học lấy mẫu) cho các ứng dụng AI. Nó lấy mẫu ngẫu nhiên các giao dịch trong mạng, khen thưởng những người trung thực và trừng phạt những người không trung thực để đạt được hiệu quả xác minh nhẹ và giảm bớt gánh nặng xác minh. Gánh nặng tính toán của mạng cho phép hầu hết mọi công ty khởi nghiệp AI phi tập trung các dịch vụ AI của họ theo mô hình xác minh phân tán.

Quy trình thực hiện cụ thể như sau:

1) Nút tính toán hàm và gửi kết quả cho bộ điều phối theo cách crypto.

2) Sau đó, người điều phối sẽ quyết định xem có tin tưởng vào kết quả này hay không và nếu vậy, nút sẽ được thưởng cho việc tính toán.

3) Nếu không có sự tin cậy, người điều phối sẽ chọn ngẫu nhiên một người xác thực trong mạng, thách thức nút và tính toán chức năng tương tự. Tương tự, người xác minh gửi kết quả cho người điều phối theo cách crypto.

4) Cuối cùng, người điều phối sẽ kiểm tra xem tất cả các kết quả có nhất quán hay không. Nếu chúng nhất quán thì cả nút và người xác minh sẽ nhận được phần thưởng; nếu chúng không nhất quán thì quy trình phân xử sẽ được bắt đầu để theo dõi quá trình tính toán của từng kết quả. Những người trung thực được khen thưởng vì tính chính xác của họ và những người không trung thực sẽ bị trừng phạt vì gian lận hệ thống.

iYxRf0n6JzmXSYUD0N6z9QSi5O6AvjqgpITyLUYD.png

Nút không biết liệu kết quả mà họ gửi có bị thách thức hay không, họ cũng không biết người điều phối sẽ chọn người xác nhận nào để thách thức, lần đảm bảo tính công bằng của việc xác minh. Chi phí của việc gian lận vượt xa lợi nhuận tiềm năng.

Nếu spML được thử nghiệm trong tương lai, nó sẽ đủ để thay đổi luật chơi cho các ứng dụng AI và biến việc xác minh suy luận không đáng tin cậy thành hiện thực. Ngoài ra, Hyperbolic có khả năng độc nhất trong ngành là áp dụng thuật toán BF 16 vào lý luận mô hình (các đối thủ vẫn đang mắc kẹt ở FP 8), có thể cải thiện hiệu quả độ chính xác của lý luận, khiến dịch vụ lý luận phi tập trung của Hyperbolic cực kỳ tiết kiệm chi phí.

Ngoài ra, sự đổi mới của Hyperbolic còn được thể hiện ở việc tích hợp tỷ lệ băm đám mây AI và các ứng dụng AI. Bản thân nhu cầu về thị trường tỷ lệ băm phi tập trung tương đối khan hiếm. Hyperbolic thu hút các nhà phát triển xây dựng các ứng dụng AI bằng cách xây dựng cơ sở hạ tầng AI có thể kiểm chứng được. Tỷ lệ băm có thể được mở rộng tích hợp trực tiếp và liền mạch vào các ứng dụng AI mà không làm giảm hiệu suất và bảo mật. nó có thể tự cung tự cấp và đạt được sự cân bằng giữa cung và cầu.

Các nhà phát triển có thể xây dựng các ứng dụng AI cải tiến xoay quanh tỷ lệ băm, Web2 và Web3 trên Hyperbolic, chẳng hạn như:

  • GPU Exchange, một nền tảng giao dịch GPU được xây dựng trên mạng GPU (lớp điều phối), thương mại hóa "tài nguyên GPU" để giao dịch miễn phí, giúp tỷ lệ băm tiết kiệm chi phí hơn.

  • IAO, hoặc token hóa Tác nhân AI, cho phép những người đóng góp kiếm được mã thông báo và thu nhập của Tác nhân AI sẽ được phân phối cho người nắm giữ token .

  • DAO do AI điều khiển là DAO giúp đưa ra quyết định quản trị và quản lý tài chính thông qua trí tuệ nhân tạo.

  • Việc khôi phục GPU cho phép người dùng kết nối GPU của họ với Hyperbolic và reStake vào các ứng dụng AI.

Nhìn chung, Hyperbolic đã thiết lập một hệ sinh thái AI mở cho phép mọi người dễ dàng sử dụng AI. Thông qua đổi mới công nghệ, Hyperbolic đang làm cho AI trở nên phổ biến và dễ tiếp cận hơn, khiến tương lai của AI có đầy đủ khả năng tương tác và tương thích, đồng thời khuyến khích đổi mới hợp tác.

Dữ liệu trả về cho người dùng và chúng ta tham gia làn sóng AI

Ngày nay, dữ liệu là một mỏ vàng và dữ liệu cá nhân đang được các gã khổng lồ công nghệ thu giữ và thương mại hóa miễn phí.

Dữ liệu là thức ăn của AI. Nếu không có dữ liệu chất lượng cao, ngay cả những thuật toán tiên tiến nhất cũng không thể thực hiện được công việc của chúng. Số lượng, chất lượng và tính đa dạng của dữ liệu ảnh hưởng trực tiếp đến hiệu suất của các mô hình AI.

Như chúng tôi đã đề cập trước đó, ngành đang mong chờ sự ra mắt của GPT-5. Tuy nhiên đã lâu rồi nó chưa được ra mắt, có lẽ do lượng dữ liệu chưa đủ. Chỉ riêng GPT-3 trong giai đoạn xuất bản giấy đã yêu cầu khối lượng dữ liệu là 2 nghìn tỷ Token. GPT-5 dự kiến ​​​​sẽ đạt khối lượng dữ liệu 200 nghìn tỷ Token. Ngoài dữ liệu văn bản hiện có, cần có thêm dữ liệu đa phương thức, có thể được sử dụng để huấn luyện sau khi được làm sạch.

Trong dữ liệu Internet công cộng ngày nay, có tương đối ít mẫu dữ liệu chất lượng cao. Một tình huống thực tế là các mô hình lớn hoạt động rất tốt trong việc tạo câu hỏi và câu trả lời trong bất kỳ lĩnh vực nào, nhưng chúng hoạt động kém đối diện vấn đề trong lĩnh vực chuyên môn và thậm chí thất bại. Có ảo tưởng rằng người mẫu đang "nói chuyện nghiêm túc".

Để đảm bảo tính “mới” của dữ liệu, các gã khổng lồ AI thường thực hiện các thỏa thuận với chủ sở hữu các nguồn dữ liệu lớn. Ví dụ: OpenAI đã ký thỏa thuận trị giá 60 triệu USD với Reddit.

Gần đây, một số phần mềm cộng đồng đã bắt đầu yêu cầu người dùng ký thỏa thuận, yêu cầu người dùng đồng ý ủy quyền nội dung để sử dụng trong việc đào tạo các mô hình AI của bên thứ ba. Tuy nhiên, người dùng vẫn chưa nhận được bất kỳ phần thưởng nào từ việc này. Hành vi săn mồi này đã làm dấy lên nghi ngờ của công chúng về quyền sử dụng dữ liệu .

Rõ ràng, tiềm năng phi tập trung và có thể theo dõi của blockchain đương nhiên phù hợp để cải thiện vấn đề khó khăn trong việc lấy dữ liệu và tài nguyên, đồng thời cung cấp nhiều quyền kiểm soát và minh bạch hơn cho dữ liệu người dùng, đồng thời cũng có thể thu được lợi nhuận bằng cách tham gia đào tạo và tối ưu hóa các mô hình AI. Cách tạo giá trị dữ liệu mới này sẽ tăng đáng kể sự tham gia của người dùng và thúc đẩy sự thịnh vượng chung của hệ sinh thái.

Web3 đã có một số công ty nhắm đến dữ liệu AI, chẳng hạn như:

  • Thu thập dữ liệu: Ocean Protocol, Vana, PIN AI, Sahara, v.v.

  • Xử lý dữ liệu: Public AI, Lightworks, v.v.

Trong đó những cái tên thú vị hơn là Vana, PIN AI và Saraha, tất cả đều gần đây đã nhận được số tiền tài trợ lớn và có một đội ngũ nhà đầu tư sang trọng. Cả hai dự án đều tách ra khỏi các lĩnh vực phụ và kết hợp thu thập dữ liệu với phát triển AI để thúc đẩy việc triển khai các ứng dụng AI.

Vana: Người dùng kiểm soát dữ liệu, DAO và cơ chế đóng góp định hình lại nền kinh tế dữ liệu AI

Vana đã hoàn thành vòng tài trợ trị giá 18 triệu đô la vào tháng 12 năm 2022 và 5 triệu đô la tài trợ chiến lược vào tháng 9 năm nay. Đầu tư từ các quỹ đầu tư mạo hiểm có tiếng như Paradigm, Polychain và Coinbase.

Khái niệm cốt lõi của Vana là "dữ liệu do người dùng sở hữu, hiện thực hóa AI do người dùng sở hữu". Trong thời đại mà dữ liệu là vua, Vana muốn phá vỡ sự độc quyền của các công ty lớn về dữ liệu, cho phép người dùng kiểm soát dữ liệu của chính họ và hưởng lợi từ dữ liệu của chính họ.

Vana là mạng dữ liệu phi tập trung tập trung vào việc bảo vệ dữ liệu riêng tư, cho phép dữ liệu của người dùng được sử dụng linh hoạt như tài sản tài chính. Vana cố gắng định hình lại bối cảnh của nền kinh tế dữ liệu và chuyển đổi người dùng từ nhà cung cấp dữ liệu thụ động sang những người xây dựng hệ sinh thái tham gia tích cực và cùng có lợi.

Để hiện thực hóa viễn cảnh mong đợi này, Vana cho phép người dùng tổng hợp và tải dữ liệu lên thông qua DAO dữ liệu , sau đó xác minh giá trị của dữ liệu đồng thời bảo vệ quyền riêng tư thông qua cơ chế bằng chứng đóng góp. Dữ liệu này có thể được sử dụng để đào tạo AI và người dùng nhận được khích lệ dựa trên chất lượng dữ liệu họ tải lên.

Về mặt triển khai, kiến ​​trúc kỹ thuật của Vana bao gồm năm thành phần chính: lớp thanh khoản dữ liệu , lớp khả năng di chuyển dữ liệu, nhóm kết nối phổ quát, lưu trữ dữ liệu không được quản lý và lớp ứng dụng phi tập trung .

Lớp thanh khoản dữ liệu : Đây là cốt lõi của mạng Vana, khích lệ, tổng hợp và xác minh dữ liệu có giá trị thông qua Nhóm thanh khoản dữ liệu (DLP). DLP giống như một phiên bản dữ liệu của "nhóm thanh khoản ". Mỗi DLP là một hợp đồng thông minh được thiết kế để tổng hợp các loại tài sản dữ liệu cụ thể, chẳng hạn như Reddit, Twitter và dữ liệu truyền thông xã hội khác.

Lớp di chuyển dữ liệu : Thành phần này cung cấp khả năng di chuyển cho dữ liệu người dùng, đảm bảo rằng người dùng có thể dễ dàng chuyển và sử dụng dữ liệu của họ giữa các ứng dụng và mô hình AI khác nhau.

Bản đồ sinh thái dữ liệu : Đây là bản đồ theo dõi luồng dữ liệu theo thời gian thực trên toàn bộ hệ sinh thái, đảm bảo tính minh bạch.

Lưu trữ dữ liệu không được quản lý : Sự đổi mới của Vana nằm ở phương pháp quản lý dữ liệu độc đáo, cho phép người dùng luôn duy trì toàn quyền kiểm soát dữ liệu của mình. Dữ liệu gốc của người dùng sẽ không được tải lên Chuỗi mà vị trí lưu trữ sẽ do người dùng lựa chọn, chẳng hạn như máy chủ đám mây hoặc máy chủ cá nhân.

Lớp ứng dụng phi tập trung : Dựa trên dữ liệu, Vana đã xây dựng một hệ sinh thái ứng dụng mở. Các nhà phát triển có thể sử dụng dữ liệu do DLP tích lũy để xây dựng các ứng dụng sáng tạo khác nhau, bao gồm các ứng dụng AI và những người đóng góp dữ liệu có thể nhận được lợi ích từ các ứng dụng này.

Hiện tại, Vana được xây dựng dựa trên các nền tảng truyền thông xã hội như ChatGPT, Reddit, LinkedIn và Twitter, cũng như các DLP tập trung vào AI và duyệt dữ liệu. Khi có nhiều DLP trong đó hơn và nhiều ứng dụng sáng tạo hơn được xây dựng trên nền tảng, Vana có tiềm năng. trở thành Thế hệ tiếp theo phi tập trung cơ sở hạ tầng kinh tế dữ liệu và AI phi tập trung.

Điều này khiến chúng ta nhớ đến một tin tức gần đây để cải thiện tính đa dạng của LLM, Meta đang thu thập dữ liệu từ người dùng Facebook và Instagram ở Vương quốc Anh. Tuy nhiên, nó đã bị chỉ trích vì cho phép người dùng chọn "không tham gia" thay vì "đồng ý". . Có lẽ sẽ là lựa chọn tốt hơn cho Meta khi xây dựng DLP cho Facebook và Instagram tương ứng trên Vana, điều này không chỉ đảm bảo quyền riêng tư dữ liệu mà còn khích lệ nhiều người dùng tích cực đóng góp dữ liệu hơn.

PIN AI: Trợ lý AI phi tập trung, AI di động kết nối dữ liệu và cuộc sống hàng ngày

PIN AI đã hoàn thành vòng tài trợ trước Seed 10 triệu đô la vào tháng 9 năm nay. Một số nhà đầu tư mạo hiểm và nhà đầu tư thiên thần có tiếng như a16z CSX, Hack VC và Blockchain Builders Fund (Stanford Blockchain Accelerator ) đã tham gia vào khoản đầu tư lần.

PIN AI là mạng AI mở được hỗ trợ bởi mạng lưu trữ dữ liệu phân tán của kiến ​​trúc DePIN. Người dùng có thể kết nối thiết bị của họ với mạng, cung cấp dữ liệu cá nhân/tùy chọn người dùng và nhận khích lệ về token . Động thái này cho phép người dùng lấy lại quyền kiểm soát và kiếm tiền từ dữ liệu của họ. Các nhà phát triển có thể sử dụng dữ liệu trong đó xây dựng các Tác nhân AI hữu ích.

Viễn cảnh mong đợi của nó là trở thành một giải pháp thay thế phi tập trung cho Apple Intelligence, cam kết cung cấp cho nhóm người dùng các ứng dụng hữu ích trong cuộc sống hàng ngày và hiện thực hóa ý định của người dùng, chẳng hạn như mua hàng trực tuyến, lên kế hoạch du lịch và lập kế hoạch hành vi đầu tư.

PIN AI bao gồm hai loại AI, trợ lý AI cá nhân và dịch vụ AI bên ngoài.

Trợ lý AI cá nhân có thể truy cập dữ liệu người dùng, thu thập nhu cầu của người dùng và cung cấp cho AI dịch vụ bên ngoài dữ liệu phù hợp khi họ dữ liệu . Lớp dưới cùng của PIN AI bao gồm mạng lưu trữ dữ liệu phân tán DePIN, cung cấp dữ liệu người dùng phong phú để suy luận về các dịch vụ AI bên ngoài mà không cần truy cập vào quyền riêng tư cá nhân của người dùng.

hvWeyQZnuqEOccTPfT38KHZ3plY07GaZ0ncFJNxo.png

Với PIN AI, người dùng sẽ không còn cần phải mở hàng nghìn ứng dụng di động để hoàn thành nhiệm vụ khác nhau. Khi người dùng bày tỏ ý định với trợ lý AI cá nhân, chẳng hạn như “Tôi muốn mua một bộ quần áo mới”, “Đặt loại đồ ăn mang đi nào” hoặc “Tìm cơ hội đầu tư tốt nhất trong bài viết của tôi”, AI không chỉ hiểu sở thích của người dùng, Tất cả nhiệm vụ này còn có thể được thực hiện một cách hiệu quả - các ứng dụng và nhà cung cấp dịch vụ phù hợp nhất sẽ được tìm thấy để triển khai ý định của người dùng dưới dạng quy trình đấu thầu cạnh tranh.

Điều quan trọng nhất là PIN AI nhận ra sự cần thiết của việc giới thiệu một dịch vụ phi tập trung có thể mang lại nhiều giá trị hơn trong tình thế tiến thoái lưỡng nan hiện tại khi người dùng đã quen với việc tương tác trực tiếp với các nhà cung cấp dịch vụ tập trung để nhận được dịch vụ. Trợ lý AI cá nhân có thể lấy dữ liệu có giá trị cao được tạo một cách hợp pháp khi người dùng tương tác với các ứng dụng Web2 dưới tên của người dùng, đồng thời lưu trữ và gọi nó theo cách phi tập trung, để cùng một dữ liệu có thể phát huy giá trị lớn hơn, cho phép chủ sở hữu dữ liệu và Người gọi cũng được hưởng lợi.

Mặc dù mainnet PIN AI vẫn chưa được ra mắt nhưng đội ngũ đã trình diễn nguyên mẫu sản phẩm cho người dùng thông qua Telegram ở một mức độ nhỏ để tạo điều kiện thuận lợi cho việc nhận thức viễn cảnh mong đợi.

Hi PIN Bot bao gồm ba phần, Play, Data Connectors và AI Agent.

Play là người bạn đồng hành ảo AI được hỗ trợ bởi các mô hình lớn như PIN AI-1.5 b, Gemma và Llama. Điều này tương đương với trợ lý AI cá nhân của PIN AI.

Trong Trình kết nối dữ liệu, người dùng có thể kết nối tài khoản Google, Facebook, X và Telegram để kiếm điểm nâng cấp những người bạn đồng hành ảo. Trong tương lai, nó cũng sẽ hỗ trợ người dùng kết nối Amazon, Ebay, Uber và các tài khoản khác. Điều này tương đương với mạng dữ liệu DePIN của PIN AI.

Sử dụng dữ liệu của riêng bạn để sử dụng cho riêng bạn Sau khi kết nối dữ liệu , người dùng có thể đưa ra các yêu cầu cho người bạn đồng hành ảo (sắp ra mắt) và người bạn đồng hành ảo sẽ cung cấp dữ liệu của người dùng cho Tác nhân AI đáp ứng các yêu cầu nhiệm vụ cho. xử lý.

Chính thức đã phát triển một số nguyên mẫu AI Agent, hiện vẫn đang trong giai đoạn thử nghiệm. Chúng tương đương với các dịch vụ AI bên ngoài của PIN AI. Ví dụ: X Insight, nhập tài khoản Twitter và nó có thể phân tích hoạt động của tài khoản. Khi Trình kết nối dữ liệu hỗ trợ thương mại điện tử, tài khoản mang đi và các tài khoản nền tảng khác, Đại lý AI như Mua sắm và Đặt món ăn cũng có thể đóng vai trò xử lý tự động các đơn đặt hàng do người dùng thực hiện.

aTsBr4JsfrzlNSnjFD35rgsUZb5M8bDJBSOcSuPe.jpeg

Nhìn chung, thông qua hình thức DePIN+AI, PIN AI đã thiết lập một mạng AI mở, cho phép các nhà phát triển xây dựng các ứng dụng AI thực sự hữu ích và giúp cuộc sống của người dùng thuận tiện và thông minh hơn. Khi có nhiều nhà phát triển tham gia hơn, PIN AI sẽ mang đến nhiều ứng dụng sáng tạo hơn và tích hợp AI thực sự vào cuộc sống hàng ngày.

Sahara: Kiến trúc nhiều lớp dẫn đến xác minh dữ liệu AI, quyền riêng tư và giao dịch công bằng

Sahara đã hoàn thành khoản tài trợ Series A trị giá 43 triệu USD vào tháng 8 năm nay, với khoản đầu tư có tiếng như Binance Labs, Pantera Capital và Polychain.

Sahara AI là nền tảng ứng dụng blockchain AI có kiến ​​trúc nhiều lớp, tập trung vào việc thiết lập mô hình phát triển AI công bằng và minh bạch hơn trong kỷ nguyên AI có thể gán giá trị cho dữ liệu và phân phối lợi nhuận cho người dùng, giải quyết các vấn đề về quyền riêng tư và bảo mật theo cách truyền thống. Hệ thống AI, thu thập dữ liệu và minh bạch.

Theo cách nói thông thường, Sahara AI muốn xây dựng một mạng AI phi tập trung cho phép người dùng kiểm soát dữ liệu của chính họ và nhận phần thưởng dựa trên chất lượng dữ liệu mà họ đóng góp. Bằng cách này, người dùng không còn là nhà cung cấp dữ liệu thụ động mà trở thành người xây dựng hệ sinh thái có thể tham gia và chia sẻ lợi nhuận.

Người dùng có thể tải dữ liệu lên thị trường dữ liệu phi tập trung của họ và sau đó sử dụng cơ chế đặc biệt để chứng minh quyền sở hữu dữ liệu("xác nhận"). Dữ liệu này có thể được sử dụng để đào tạo AI và người dùng được thưởng dựa trên chất lượng của dữ liệu.

Sahara AI bao gồm kiến ​​trúc bốn lớp gồm ứng dụng, giao dịch, dữ liệu và thực thi, cung cấp nền tảng vững chắc cho sự phát triển của hệ sinh thái AI.

  • Lớp ứng dụng : Cung cấp các công cụ như kho bảo mật, thị trường dữ liệu AI phi tập trung , bộ công cụ không mã và ID Sahara. Những công cụ này đảm bảo quyền riêng tư dữ liệu và thúc đẩy đền bù công bằng cho người dùng, đơn giản hóa hơn nữa quá trình tạo và triển khai các ứng dụng AI.

Nói một cách đơn giản, vault sử dụng công nghệ crypto tiên tiến để đảm bảo tính bảo mật của dữ liệu AI; thị trường dữ liệu AI phi tập trung có thể được sử dụng để thu thập, chú thích và chuyển đổi dữ liệu, thúc đẩy đổi mới và bộ công cụ không có mã cho phép phát triển các ứng dụng AI; Đơn giản hơn nữa; Sahara ID quản lý danh tiếng của người dùng và đảm bảo sự tin cậy.

  • Lớp giao dịch : Blockchain Sahara sử dụng cơ chế đồng thuận Bằng chứng cổ phần(PoS) để đảm bảo tính hiệu quả và ổn định của mạng, cho phép đạt được sự đồng thuận ngay cả khi có nút độc hại. Ngoài ra, chức năng biên dịch trước gốc của Sahara được thiết kế đặc biệt để tối ưu hóa quá trình xử lý AI và có thể thực hiện các phép tính hiệu quả trực tiếp trong hoàn cảnh blockchain để cải thiện hiệu suất hệ thống.

  • Lớp dữ liệu : quản lý dữ liệu trong và ngoài Chuỗi . Dữ liệu trên Chuỗi xử lý các hoạt động không thể theo dõi và các bản ghi thuộc tính để đảm bảo độ tin cậy và tính minh bạch; dữ liệu ngoài Chuỗi xử lý các tập dữ liệu lớn và sử dụng Merkle Tree cũng như công nghệ Bằng chứng không tri thức để đảm bảo tính toàn vẹn và bảo mật dữ liệu nhằm ngăn chặn sự trùng lặp và giả mạo dữ liệu.

  • Lớp thực thi : Tóm tắt các hoạt động của vault, mô hình AI và ứng dụng AI, đồng thời hỗ trợ các mô hình dịch vụ, suy luận và đào tạo AI khác nhau.

df9hKoHDZBtQjlPLYybkuXHS9wwXO0wNIYFa8u6h.png

Toàn bộ kiến ​​trúc bốn lớp không chỉ đảm bảo tính bảo mật và mở rộng của hệ thống mà còn phản ánh viễn cảnh mong đợi dài hạn của Sahara AI nhằm thúc đẩy nền kinh tế hợp tác và phát triển AI, nhằm thay đổi hoàn toàn mô hình ứng dụng công nghệ AI và mang lại nhiều đổi mới và sáng tạo hơn. giải pháp công bằng cho người dùng.

Phần kết luận

Với sự tiến bộ không ngừng của công nghệ AI và sự phát triển của thị trường crypto, chúng ta đang đứng trước ngưỡng cửa của một kỷ nguyên mới.

Khi các mô hình và ứng dụng AI lớn tiếp tục xuất hiện, nhu cầu về tỷ lệ băm cũng tăng trưởng theo cấp số nhân. Tuy nhiên, sự khan hiếm về tỷ lệ băm và chi phí tăng là thách thức lớn đối với nhiều doanh nghiệp vừa và nhỏ. May mắn thay, các giải pháp phi tập trung, đặc biệt là Hyperbolic, Aethir và IO.NET, cung cấp cho các công ty khởi nghiệp AI những cách mới để đạt được tỷ lệ băm, giảm chi phí và nâng cao hiệu quả.

Đồng thời, chúng ta cũng thấy được tầm quan trọng của dữ liệu trong quá trình phát triển AI. Dữ liệu không chỉ là thức ăn của AI mà còn là chìa khóa thúc đẩy việc triển khai các ứng dụng AI. Các dự án như PIN AI và Sahara cung cấp hỗ trợ dữ liệu mạnh mẽ cho sự phát triển của AI bằng cách khích lệ mạng lưới và khuyến khích người dùng tham gia thu thập và chia sẻ dữ liệu .

Tỷ lệ băm và dữ liệu không chỉ là các liên kết đào tạo. Đối với các ứng dụng AI, từ việc nhập dữ liệu đến suy luận sản xuất, mỗi liên kết đều yêu cầu sử dụng các công cụ khác nhau để xử lý dữ liệu lớn và đây là một quá trình lặp đi lặp lại.

Trong thế giới đan xen giữa AI và tiền điện tử này, chúng ta có lý do để tin rằng chúng ta sẽ chứng kiến ​​việc triển khai nhiều dự án AI sáng tạo hơn trong tương lai. Những dự án này sẽ không chỉ thay đổi công việc và lối sống của chúng ta mà còn thúc đẩy toàn xã hội trở nên thông minh hơn. và hướng phi tập trung. Khi công nghệ tiếp tục phát triển và thị trường tiếp tục trưởng thành, chúng tôi mong đợi sự xuất hiện của một kỷ nguyên AI cởi mở, công bằng và hiệu quả hơn.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận