Viết sau hội nghị GTC, Web3 có thể cứu vãn tỷ lệ băm của AI không?

Bài viết này được dịch máy
Xem bản gốc

Sự hồi sinh của tỷ lệ băm đám mây —Nhân danh AI

Thời trang có tính chu kỳ và Web 3 cũng vậy.

Gần "re" đã trở thành một chuỗi công khai AI. Với tư cách là một trong những người sáng lập Transformer, anh Solana đã có thể tham dự hội nghị NVIDIA GTC và nói chuyện với Lao Huang về tương lai của AI thế hệ đã biến đổi thành công như một nơi tụ tập. cho io.net, Bittensor và Render Network Đối với Chuỗi khái niệm AI, cũng có những người chơi mới nổi tham gia vào lĩnh vực điện toán GPU như Akash, GAIMIN và Gensyn.

Nếu chúng ta nâng cao tầm nhìn của mình trong khi giá tiền tệ tăng, chúng ta có thể tìm thấy một số sự thật thú vị:

  1. Cuộc chiến giành tỷ lệ băm GPU đến phi tập trung. Tỷ lệ băm càng lớn thì hiệu ứng tính toán của CPU, bộ lưu trữ và GPU càng gắn kết với nhau;

  2. Mô hình điện toán đang chuyển đổi từ đám mây hóa phi tập trung. Đằng sau đó là sự thay đổi về nhu cầu từ đào tạo AI sang các mô hình trên Chuỗi không còn là chuyện sáo rỗng nữa.

  3. Thành phần phần mềm và phần cứng cơ bản cũng như logic vận hành của kiến ​​trúc Internet về cơ bản không thay đổi và lớp tỷ lệ băm phi tập trung chịu trách nhiệm nhiều hơn trong khích lệ kết nối mạng.

Trước tiên, hãy phân biệt về mặt khái niệm. Tỷ lệ băm đám mây trong thế giới Web3 ra đời trong thời đại khai thác nền tảng đám mây. Nó đề cập đến việc đóng gói và bán tỷ lệ băm của các máy khai thác, loại bỏ chi phí khổng lồ của người dùng để mua máy khai thác. các nhà sản xuất tỷ lệ băm thường “bán quá mức”, chẳng hạn như Trộn và bán tỷ lệ băm của 100 máy khai thác cho 105 người để thu được lợi nhuận vượt mức cuối cùng khiến thuật ngữ này tương đương với một lời nói dối.

Tỷ lệ băm đám mây trong bài viết này đề cập cụ thể đến tài nguyên tỷ lệ băm của các nhà cung cấp đám mây dựa trên GPU. Câu hỏi ở đây là liệu nền tảng tỷ lệ băm phi tập trung là con rối phía trước của nhà cung cấp đám mây hay bản cập nhật phiên bản tiếp theo.

Sự tích hợp giữa các nhà cung cấp đám mây truyền thống và blockchain sâu hơn chúng ta tưởng tượng. Ví dụ: nút chuỗi công khai , quá trình phát triển và lưu trữ hàng ngày về cơ bản sẽ xoay quanh AWS, Alibaba Cloud và Huawei Cloud, loại bỏ khoản đầu tư đắt đỏ khi mua phần cứng vật lý. gây ra không thể bỏ qua. Trong trường hợp cực đoan, việc rút cáp mạng sẽ khiến chuỗi công khai bị sập, vi phạm nghiêm trọng tinh thần phi tập trung .

Mặt khác, các nền tảng tỷ lệ băm phi tập trung hoặc trực tiếp xây dựng "phòng máy tính" để duy trì sự ổn định của mạng hoặc trực tiếp xây dựng các mạng khích lệ, chẳng hạn như chiến lược airdrop của IO.NET để thúc đẩy số lượng GPU và bộ lưu trữ của Filecoin để gửi token FIL Điểm khởi đầu không phải là để đáp ứng nhu cầu sử dụng mà là để trao quyền cho token. Một bằng chứng là các nhà sản xuất, cá nhân hoặc tổ chức học thuật lớn hiếm khi thực sự sử dụng chúng để đào tạo, lý luận hoặc kết xuất đồ họa ML, dẫn đến lãng phí tài nguyên nghiêm trọng.

Tuy nhiên, trước tình hình giá tiền tệ tăng cao và tâm lý FOMO, mọi cáo buộc cho rằng tỷ lệ băm phi tập trung là một trò lừa đảo tỷ lệ băm đám mây đã biến mất.

Hai loại tỷ lệ băm đám mây có cùng tên không?

Suy luận và FLOPS, định lượng sức mạnh tính toán của GPU

Yêu cầu về tỷ lệ băm của các mô hình AI đang phát triển từ đào tạo sang suy luận.

Hãy lấy Sora của OpenAI làm ví dụ. Mặc dù nó cũng được sản xuất dựa trên công nghệ Transformer nhưng kích thước thông số của nó được so sánh với hàng nghìn tỷ của GPT-4. Giới học thuật suy đoán rằng nó thấp hơn hàng trăm tỷ. Yang Likun thậm chí còn nói rằng nó là. chỉ 3 tỷ, tức là đào tạo Chi phí thấp, điều này cũng rất dễ hiểu. Tài nguyên tính toán cần thiết cho một số lượng nhỏ các tham số cũng được giảm bớt tương ứng.

Nhưng đổi lại, Sora có thể cần khả năng “lý luận” mạnh mẽ hơn, có thể hiểu là khả năng tạo ra các video cụ thể theo hướng dẫn. Video từ lâu đã được coi là nội dung sáng tạo nên đòi hỏi khả năng hiểu biết AI mạnh mẽ hơn và việc đào tạo tương đối đơn giản. Có thể hiểu là việc tóm tắt các quy tắc dựa trên nội dung có sẵn, xếp chồng tỷ lệ băm mà không cần suy nghĩ, chăm chỉ làm việc để tạo ra những điều kỳ diệu.

Trước đây, tỷ lệ băm AI chủ yếu được sử dụng cho việc đào tạo, một lượng nhỏ được sử dụng cho khả năng suy luận và về cơ bản được bao phủ bởi nhiều sản phẩm NVIDIA khác nhau. Tuy nhiên, sau sự ra đời của Groq LPU (Bộ xử lý ngôn ngữ), mọi thứ bắt đầu thay đổi. và khả năng suy luận tốt hơn, các mô hình lớn được xếp chồng lên nhau để thu gọn và cải thiện độ chính xác, cũng như việc sử dụng bộ não để nói logic đang dần trở thành xu hướng chủ đạo.

Ngoài ra, tôi xin bổ sung thêm cách phân loại GPU. Người ta thường thấy chính những người chơi game cứu vãn AI. Điều hợp lý là nhu cầu mạnh mẽ về GPU hiệu suất cao trên thị trường game bao gồm cả việc nghiên cứu và phát triển. Ví dụ: 4090 card đồ họa, những người chơi game và thuật giả kim AI có thể sử dụng được, nhưng cần lưu ý rằng thẻ trò chơi và thẻ tỷ lệ băm sẽ dần được tách rời. Quá trình này tương tự như quá trình phát triển của máy khai thác Bitcoin từ trước đến nay. máy tính cá nhân đến máy khai thác chuyên dụng và các chip được sử dụng cũng tuân theo thứ tự từ CPU, GPU, FPGA và ASIC.

Thẻ đặc biệt LLM đang được phát triển...

Khi công nghệ AI, đặc biệt là lộ trình LLM, trưởng thành và phát triển, sẽ ngày càng có nhiều nỗ lực tương tự đối với TPU, DPU và LPU. Tất nhiên, sản phẩm chính hiện tại là GPU của NVIDIA. Tất cả các cuộc thảo luận dưới đây cũng dựa trên GPU và LPU. Chờ đợi thêm là một sự bổ sung cho GPU và sẽ mất một thời gian để thay thế nó hoàn toàn.

Cuộc cạnh tranh tỷ lệ băm phi tập trung không cạnh tranh giành các kênh mua lại GPU mà cố gắng thiết lập các mô hình lợi nhuận mới.

Tại thời điểm viết bài này, NVIDIA gần như đã trở thành nhân vật chính. Về cơ bản, NVIDIA chiếm 80 % thị trường card đồ họa. Tranh chấp giữa card N và card A chỉ tồn tại trên lý thuyết.

Sự địa vị tuyệt đối đã tạo ra sự cạnh tranh khốc liệt về GPU, từ RTX 4090 cấp độ người tiêu dùng đến A100/H100 cấp doanh nghiệp và các nhà cung cấp đám mây khác nhau là lực lượng chính trong việc tích trữ. Tuy nhiên, các công ty liên quan đến AI như Google, Meta, Tesla và OpenAI đều có hành động hoặc kế hoạch sản xuất chip tự sản xuất, còn các công ty trong nước đã chuyển hướng sang các nhà sản xuất trong nước như Huawei, và đường đua GPU vẫn vô cùng đông đúc.

Đối với các nhà cung cấp đám mây truyền thống, thứ họ bán thực sự là tỷ lệ băm và không gian lưu trữ, vì vậy việc có sử dụng chip của riêng họ hay không không cấp bách như các công ty AI. Tuy nhiên, đối với các dự án tỷ lệ băm phi tập trung , họ hiện đang ở nửa đầu, tức là. so với đám mây truyền thống Các nhà sản xuất đang cạnh tranh kinh doanh tỷ lệ băm , tập trung vào sức mạnh tính toán rẻ và dễ kiếm. Tuy nhiên, khó có khả năng chip AI Web3 sẽ xuất hiện trong tương lai như khai thác Bitcoin .

Một nhận xét phi tập trung sung, kể từ khi Ethereum chuyển sang PoS, ngày càng có ít phần cứng chuyên dụng hơn trong cộng đồng tiền điện tử . Thị trường dành cho điện thoại di động Saga, khả tỷ lệ băm tăng tốc phần cứng ZK và DePIN quá nhỏ. Thẻ tỷ lệ băm AI. Phát triển đường đi đặc trưng cho Web3.

Tỷ lệ băm phi tập trung là bước tiếp theo hoặc bổ sung cho đám mây.

Sức mạnh tính toán của GPU thường được so sánh trong ngành với FLOPS (Hoạt động dấu phẩy động mỗi giây), đây là chỉ báo được sử dụng phổ biến nhất để đo tốc độ tính toán, bất kể thông số kỹ thuật của GPU hay các biện pháp tối ưu hóa như tính song song của ứng dụng, cuối cùng vẫn là như vậy. dựa trên FLOPS ở mức cao và thấp.

Đã mất khoảng nửa thế kỷ từ điện toán cục bộ đến chuyển sang đám mây và khái niệm phân phối đã tồn tại kể từ khi máy tính ra đời. Được thúc đẩy bởi LLM, sự kết hợp giữa phi tập trung và tỷ lệ băm sẽ không còn mơ hồ như trước nữa. Tóm tắt càng nhiều dự án tỷ lệ băm phi tập trung hiện có càng tốt, chỉ với hai khía cạnh:

  1. Số lượng phần cứng như GPU được dùng để đo tốc độ tính toán của chúng. Theo Định luật Moore, GPU càng mới thì khả năng tính toán càng mạnh.

  2. Phương pháp tổ chức lớp khích lệ là một đặc điểm ngành của Web3. Token , các chức năng quản trị bổ sung, khích lệ airdrop , v.v. giúp dễ hiểu hơn về giá trị lâu dài của từng dự án, thay vì tập trung quá mức vào giá tiền tệ ngắn hạn và chỉ xem xét số lượng GPU bạn có thể sở hữu hoặc gửi đi trong thời gian dài.

Từ góc độ này, tỷ lệ băm phi tập trung vẫn dựa trên lộ trình DePIN của "phần cứng + mạng khích lệ hiện có", hoặc kiến ​​trúc Internet vẫn là lớp dưới cùng và lớp tỷ lệ băm phi tập trung là khả năng kiếm tiền sau khi "ảo hóa phần cứng", tập trung vào truy cập mà không được phép. Mạng thực sự vẫn cần có sự hợp tác của phần cứng.

Tỷ lệ băm phi tập trung và GPU cần được tập trung

Với sự trợ giúp của khuôn khổ bộ ba bất khả thi blockchain , tính bảo mật của tỷ lệ băm phi tập trung không cần phải được xem xét đặc biệt. Vấn đề chính là phi tập trung và mở rộng . Vấn đề thứ hai là mục đích của mạng GPU, hiện đang đi đầu trong trạng thái AI. .

Bắt đầu từ một nghịch lý, nếu muốn hoàn thành dự án tỷ lệ băm phi tập trung thì số lượng GPU trên mạng phải càng lớn càng tốt. Không có lý do nào khác mà thông số của các mô hình lớn như GPT lại bùng nổ. không có GPU ở quy mô nhất định Không thể có hiệu ứng đào tạo hoặc suy luận.

Tất nhiên, so với sự kiểm soát tuyệt đối của các nhà cung cấp đám mây, ở giai đoạn hiện tại, các dự án tỷ lệ băm phi tập trung ít nhất có thể thiết lập các cơ chế như không có quyền truy cập và di chuyển tự do tài nguyên GPU. Tuy nhiên, do cải thiện hiệu quả sử dụng vốn, sẽ có. là một nhóm khai thác tương tự trong tương lai? Sản phẩm có thể không giống nhau.

Về mở rộng, GPU không chỉ có thể được sử dụng cho AI mà điện toán đám mây và kết xuất cũng là những con đường khả thi. Ví dụ: Render Network tập trung vào công việc kết xuất, trong khi Bittensor và những người khác tập trung vào việc cung cấp đào tạo mô hình. mở rộng tương đương với các kịch bản và mục đích sử dụng.

Do đó, hai tham số bổ sung có thể được thêm vào GPU và mạng khích lệ, đó là phi tập trung và mở rộng, để tạo thành chỉ báo so sánh từ bốn góc độ. Xin lưu ý rằng phương pháp này khác với so sánh kỹ thuật và hoàn toàn chỉ là một bức tranh.

o3ScumjKzvQ3Fjcu5TLUcTRIHosEJaZ67mfb9FrU.png

Trong các dự án nêu trên, Mạng kết xuất thực sự rất đặc biệt. Về cơ bản, nó là một mạng kết xuất phân tán và mối quan hệ của nó với AI không trực tiếp. Trong quá trình đào tạo và suy luận về AI, tất cả các liên kết đều được lồng vào nhau, cho dù đó là SGD (giảm độ dốc ngẫu nhiên). , Các thuật toán như Giảm dần độ dốc ngẫu nhiên) hoặc truyền ngược yêu cầu tính nhất quán, nhưng kết xuất và các tác vụ khác không nhất thiết phải như vậy. Video và hình ảnh thường được phân đoạn để tạo điều kiện phân phối nhiệm vụ.

Khả năng đào tạo AI của nó chủ yếu được tích hợp với io.net và tồn tại dưới dạng plug-in của io.net. Dù sao thì GPU vẫn hoạt động, dù có khó khăn đến đâu, điều đáng mong chờ hơn là việc nó chuyển sang Solana . vào thời điểm bị đánh giá thấp, sau đó người ta đã chứng minh rằng Solana phù hợp hơn với các yêu cầu hiệu suất cao của kết xuất và các mạng khác.

Thứ hai là lộ trình phát triển quy mô của io.net về việc thay thế GPU một cách bạo lực. Hiện tại, trang web chính thức liệt kê đầy đủ 180.000 GPU. Đây là cấp độ đầu tiên của dự án tỷ lệ băm phi tập trung . Có sự khác biệt lớn so với các đối thủ khác. Về mở rộng , io.net tập trung vào lý luận AI và đào tạo AI là một cách làm việc thực hành.

Nói một cách chính xác, đào tạo AI không phù hợp để triển khai phân tán. Ngay cả đối với các LLM nhẹ, số lượng tham số tuyệt đối sẽ không ít hơn nhiều. Phương pháp tính toán tập trung sẽ tiết kiệm chi phí hơn về mặt chi phí kinh tế. AI trong đào tạo thiên về các hoạt động mã hóa và crypto dữ liệu nhiều hơn, chẳng hạn như công nghệ ZK và FHE, và suy luận AI Web 3 có tiềm năng lớn. Một mặt, nó có yêu cầu tương đối thấp về hiệu suất tính toán GPU và có thể chịu được một mức độ tổn thất nhất định. Mặt khác, lý luận AI gần với khía cạnh ứng dụng hơn và khích lệ từ góc độ người dùng là đáng kể hơn.

Filecoin, một công ty khác khai thác và trao đổi token, cũng đã đạt được thỏa thuận sử dụng GPU với io.net. Filecoin sẽ sử dụng 1.000 GPU của mình song song với io.net. Đây có thể được coi là nỗ lực chung giữa những người đi trước. cả hai đều may mắn.

Tiếp theo là Gensyn, chưa được ra mắt. Chúng tôi cũng đến với đám mây để đánh giá. Vì nó vẫn đang trong giai đoạn đầu xây dựng mạng nên số lượng GPU chưa được công bố. Tuy nhiên, kịch bản sử dụng chính của nó là đào tạo AI. Cá nhân tôi cảm thấy số lượng GPU hiệu suất cao không hề nhỏ, ít nhất là vượt xa mức độ suy luận của AI, việc đào tạo AI có mối quan hệ cạnh tranh trực tiếp với các nhà cung cấp đám mây và việc thiết kế cơ chế cụ thể sẽ được thực hiện. phức tạp hơn.

Cụ thể, Gensyn cần đảm bảo tính hiệu quả của việc đào tạo mô hình, đồng thời, để nâng cao hiệu quả đào tạo, nó sử dụng các mô hình điện toán off Chuỗi trên quy mô lớn. Do đó, hệ thống xác minh mô hình và chống gian lận cần có nhân vật bên long. Trò chơi:

  • Người gửi: Người khởi xướng nhiệm vụ, người cuối cùng sẽ trả chi phí đào tạo.

  • Người giải quyết: đào tạo mô hình và cung cấp bằng chứng về tính hiệu quả.

  • Người xác minh: Xác minh tính hợp lệ của mô hình.

  • Người tố cáo: Kiểm tra hoạt động của trình xác nhận.

Nhìn chung, phương thức hoạt động tương tự như khai thác PoW + cơ chế chứng minh lạc quan. Kiến trúc rất phức tạp. Có thể việc di chuyển các phép tính ra khỏi Chuỗi có thể tiết kiệm chi phí, nhưng sự phức tạp của kiến ​​trúc sẽ mang lại thêm chi phí vận hành. Hiện tại, phi tập trung chính. tỷ lệ băm Tập trung vào thời điểm lý luận AI, tôi cũng chúc Gensyn may mắn.

Cuối cùng là Akash cũ, về cơ bản đã bắt đầu cùng với Render Network Akash tập trung vào phi tập trung CPU và Render Network là người đầu tiên tập trung vào phi tập trung GPU. Thật bất ngờ, sau khi AI bùng nổ, cả hai bên đều tham gia. lĩnh vực điện toán GPU + AI. Sự khác biệt Akash quan tâm nhiều hơn đến lý luận.

Chìa khóa cho sự trẻ hóa của Akash là quan tâm đến các vấn đề khai thác sau khi nâng cấp Ethereum . GPU nhàn rỗi không chỉ được các nữ sinh viên đại học sử dụng cho mục đích cá nhân mà giờ đây họ còn có thể cùng nhau làm việc trên AI. tất cả họ đều đang đóng góp cho nền văn minh nhân loại.

Tuy nhiên, một điều tốt về Akash là về cơ bản token đã được lưu hành đầy đủ, xét cho cùng, đây là một dự án rất cũ và nó cũng tích cực áp dụng hệ thống đặt cược thường được sử dụng trong PoS. Tuy nhiên, đội ngũ có vẻ theo đạo Phật hơn. họ không trẻ trung như io.net.

Ngoài ra, còn có THETA dành cho điện toán đám mây biên, Phoenix cung cấp các giải pháp thích hợp cho tỷ lệ băm AI và các công ty điện toán cũ và mới như Bittensor và Ritual. Do hạn chế về không gian, chúng tôi không thể liệt kê tất cả. Chủ yếu là vì một số trong số đó. thực sự khó tìm. Ít hơn số lượng GPU và các thông số khác.

Phần kết luận

Trong suốt lịch sử máy tính, các phiên bản phi tập trung của nhiều mô hình điện toán khác nhau có thể được xây dựng. Điều đáng tiếc duy nhất là chúng không có tác động gì đến các ứng dụng chính thống. Dự án điện toán Web3 hiện tại chủ yếu là tự quảng bá trong ngành. hội nghị GTC Đó cũng là vì quyền tác giả của Transformer chứ không phải tư cách người sáng lập của Near.

Điều bi quan hơn nữa là quy mô thị trường điện toán đám mây hiện tại và những người chơi quá mạnh. Liệu io.net có thể thay thế AWS? Nếu có đủ GPU, điều đó thực sự có thể xảy ra, AWS từ lâu đã sử dụng Redis mã nguồn mở. thành phần cơ bản.

Theo một nghĩa nào đó, sức mạnh của mã nguồn mở và phi tập trung không ngang nhau. Các dự án phi tập trung trung tập trung quá mức vào các lĩnh vực tài chính như DeFi và AI có thể là con đường then chốt để thâm nhập thị trường chính thống.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận