
Trong nhiều năm, lời hứa về cơ sở hạ tầng phi tập trung đã lấp lánh trên đường chân trời, thường giống ảo ảnh hơn là ốc đảo. Làn sóng đầu tiên của Mạng lưới Cơ sở hạ tầng Vật lý Phi tập trung, hay DePIN 1.0, đã có một khởi đầu đầy quả cảm, chủ yếu tập trung vào lưu trữ và băng thông. Các dự án đã chứng minh rằng chúng ta có thể cùng nhau lưu trữ các tập tin hoặc chia sẻ internet chưa sử dụng, tạo ra những thị trường ngách cạnh tranh với những gã khổng lồ như AWS S3 hay Cloudflare. Tuy nhiên, khi nói đến cốt lõi của điện toán đám mây—sức mạnh tính toán thô, có thể mở rộng và lập trình được—giấc mơ về một giải pháp thay thế khả thi cho Amazon Web Services (AWS), Google Cloud và Microsoft Azure dường như còn xa vời. Sự phức tạp của việc phối hợp phần cứng toàn cầu, ẩn danh để chạy các phép tính chung một cách đáng tin cậy là rất lớn. Nhưng một chương mới đang được viết nên. Đó là DePIN 2.0: một sự thay đổi Paradigm từ việc cung cấp tài nguyên thụ động sang các mạng lưới điện toán phi tập trung chủ động, thông minh và nhất quán về mặt kinh tế, không còn chỉ là thử nghiệm mà đang chủ động thay thế AWS cho các khối lượng công việc cụ thể, có giá trị cao.
Để hiểu được sự chuyển đổi này, trước tiên chúng ta phải chẩn đoán những hạn chế của điện toán đám mây truyền thống. AWS là một kỳ tích về hiệu quả tập trung, nhưng nó đi kèm với những đánh đổi vốn có: sự phụ thuộc vào nhà cung cấp, giá cả không minh bạch có thể tăng vọt, sự tập trung dữ liệu theo địa chính trị và một điểm yếu duy nhất (cả về kỹ thuật và quy định). Đối với một nhóm ứng dụng mới nổi – huấn luyện và suy luận AI, dựng video, mô phỏng khoa học và xử lý dữ liệu bảo mật – những đánh đổi này đang trở nên quá lớn. Các mạng DePIN 2.0 đang nổi lên để khai thác điểm yếu này, không phải bằng cách xây dựng một bản sao nguyên khối của AWS, mà bằng cách lắp ráp một siêu máy tính phân tán toàn cầu, được khuyến khích bằng token, được tối ưu hóa cho các mô hình mới này.
Sự tiến hóa: Từ DePIN 1.0 đến Compute-Centric 2.0
DePIN 1.0 tập trung vào việc tập hợp các tài nguyên nhàn rỗi. Hãy nghĩ đến Filecoin cho lưu trữ hoặc Helium cho vùng phủ sóng không dây. Mô hình khá đơn giản: khuyến khích mọi người cắm phần cứng bằng token và tạo ra một thị trường cho các tài nguyên đó. Tuy nhiên, sức mạnh tính toán không phải là một mặt hàng như dung lượng ổ cứng. Nó không đồng nhất (CPU, GPU, ASIC chuyên dụng), nhạy cảm với hiệu năng và yêu cầu sự phối hợp độ trễ thấp. Một phép tính sai sót còn tệ hơn cả việc mất một tập tin.
Mạng lưới DePIN 2.0 đã rút kinh nghiệm từ những thách thức này. Chúng được đặc trưng bởi một số tiến bộ quan trọng:
• Chuyên môn hóa theo chiều dọc: Thay vì là các mạng "đa năng", các mạng hàng đầu đang chuyên môn hóa cho các ứng dụng đột phá. Nổi bật nhất là trí tuệ nhân tạo (AI) và điện toán GPU. Tình trạng thiếu hụt GPU toàn cầu, kết hợp với nhu cầu không ngừng tăng cao từ các công ty khởi nghiệp AI, đã tạo nên một "cơn bão hoàn hảo". Các mạng hiện nay được tối ưu hóa đặc biệt cho các tác vụ học máy.
• Phối hợp và xác minh tinh vi: Vấn đề không chỉ đơn thuần là chứng minh dung lượng lưu trữ. Các cơ chế Consensus mới và bằng chứng mật mã (như bằng chứng zero-knowledge ) được sử dụng để xác minh rằng các phép tính đã được thực hiện chính xác và trung thực, một khái niệm được gọi là "tính toán có thể xác minh". Điều này xây dựng niềm tin trong một mạng lưới không đáng tin cậy.
• Chiều sâu kinh tế và vòng quay lợi nhuận: Kinh tế token đã trưởng thành vượt ra ngoài mô hình "kiếm tiền bằng cách chia sẻ" đơn giản. Token hiện điều phối các thị trường tài nguyên phức tạp, Staking bảo vệ mạng lưới khỏi các nhà cung cấp có ý đồ xấu (Slashing), và giá trị thu được chảy trực tiếp hơn giữa các nhà cung cấp tài nguyên (nhà cung cấp) và người tiêu dùng (nhà phát triển, công ty).
• Trải nghiệm phát triển liền mạch: Trở ngại lớn nhất đối với việc áp dụng là sự phức tạp. Các dự án DePIN 2.0 đang xây dựng các lớp trừu tượng cho phép các nhà phát triển triển khai khối lượng công việc dễ dàng gần như tương tự như AWS—sử dụng container, máy ảo hoặc các API quen thuộc—trong khi mạng lưới xử lý việc điều phối phi tập trung bên dưới.
Các Kiến trúc sư: Xây dựng mạng lưới AWS phi tập trung
Hãy cùng chuyển từ lý thuyết sang thực tiễn. Dưới đây là các mạng lưới đi đầu trong cuộc cách mạng điện toán DePIN 2.0:
1. Render Network: Sức mạnh GPU cho dựng hình và AI Có lẽ là mạng lưới trưởng thành và hoạt động hiệu quả nhất trong danh sách này, Render đã chuyển hướng thành công từ trọng tâm cốt lõi là dựng hình đồ họa phi tập trung (một thách thức trực tiếp đối với các phiên bản EC2 G4 của AWS về đồ họa) để trở thành một thế lực hàng đầu trong điện toán AI. Mạng lưới các nhà điều hành nút (thường là các studio có GPU nhàn rỗi) cho thuê sức mạnh GPU của họ cho các nghệ sĩ và nhà nghiên cứu AI. Chìa khóa thành công của Render nằm ở hệ sinh thái mạnh mẽ của nó: nó tích hợp liền mạch với các công cụ phổ biến như Octane, Blender và hiện nay là các framework AI. Đối với một công ty khởi nghiệp AI cần tinh chỉnh mô hình, Render cung cấp một nhóm GPU cao cấp phân tán (như RTX 4090 hoặc A100) thường với chi phí thấp hơn đáng kể và dễ dự đoán hơn so với thị trường giao ngay của AWS, mà không bị ràng buộc bởi nhà cung cấp. Điều này chứng minh rằng một mạng lưới điện toán chuyên dụng, có thông lượng cao có thể đạt được quy mô và tiện ích thực sự.
2. Akash Network: Siêu đám mây cho các khối lượng công việc tổng quát Nếu Render là chuyên gia về GPU, thì Akash đang xây dựng "Siêu đám mây" - một thị trường phi tập trung cho mọi khối lượng công việc trên đám mây. Sử dụng mô hình đấu giá ngược, người dùng nêu rõ yêu cầu của họ (CPU, GPU, bộ nhớ) và các nhà cung cấp sẽ đấu giá để lưu trữ các triển khai container của họ. Giá thầu thấp nhất sẽ thắng. Điều này tạo ra một thị trường điện toán mở, cạnh tranh khốc liệt. Điểm mạnh của Akash nằm ở tính trung lập; nó có thể chạy các khối lượng công việc AI, máy chủ web, cơ sở dữ liệu hoặc máy chủ trò chơi. Việc tích hợp GPU gần đây đã tạo ra bước ngoặt, thu hút một lượng lớn nhà cung cấp và người dùng mới. Một nhà phát triển có thể triển khai container TensorFlow hoặc PyTorch trên Akash gần như giống hệt cách họ làm trên AWS Elastic Kubernetes Service (EKS), nhưng thường với chi phí thấp hơn 70-80%. Nó là mô hình tương tự nhất với AWS EC2 trong thế giới phi tập trung, chứng minh rằng mô hình này hoạt động hiệu quả cho nhiều ứng dụng khác nhau.
3. io.net : Nền tảng điện toán đám mây GPU phân tán dành cho máy học. io.net đã nổi lên như một hiện tượng bằng cách tập trung cao độ vào điểm yếu cấp bách nhất: điện toán GPU theo cụm cho việc huấn luyện và suy luận AI. Trong khi các mạng khác cung cấp quyền truy cập GPU, io.net chuyên về việc tổng hợp các GPU chưa được sử dụng hết công suất từ các trung tâm dữ liệu độc lập, Thợ đào tiền điện tử (với các thiết bị được tái sử dụng) và người dùng vào một mạng lưới phân tán, theo cụm, hoạt động như một GPU khổng lồ duy nhất. Đây là sự đổi mới cốt lõi của nó. Một công ty AI có thể thuê một cụm hàng trăm hoặc hàng nghìn GPU thông qua nền tảng của io.net để huấn luyện một mô hình ngôn ngữ lớn, mà không cần phải đối phó với sự phức tạp trong việc cung cấp từng GPU riêng lẻ. Bằng cách tận dụng nguồn cung cấp phần cứng phân tán theo địa lý trên toàn cầu, io.net hướng đến việc cung cấp quy mô và khả năng phục hồi chưa từng có, trực tiếp thách thức SageMaker và EC2 UltraClusters của AWS.
4. Together AI: Nền tảng nghiên cứu AI phi tập trung Together AI áp dụng một cách tiếp cận hơi khác, nhưng cũng không kém phần quan trọng. Nó không chỉ đơn thuần là tập hợp phần cứng mà còn tập trung vào việc xây dựng một nền tảng phi tập trung, toàn diện cho nghiên cứu và triển khai AI. Nó cung cấp các mô hình AI mã nguồn mở, API suy luận và quan trọng hơn cả là nền tảng đám mây phân tán để huấn luyện và chạy chúng. Bằng cách kết hợp nghiên cứu, phần mềm và cơ sở hạ tầng phi tập trung, nó tạo ra một giải pháp thay thế mạch lạc cho các hệ sinh thái khép kín của OpenAI (chạy trên Azure) hoặc Vertex AI của Google. "Đám mây phi tập trung Together" của họ tập hợp GPU từ các đối tác và cá nhân, cung cấp giao diện thống nhất cho các nhà phát triển để xây dựng trên các mô hình mở với điện toán phi tập trung — một triết lý mạnh mẽ và đề xuất kỹ thuật cho cộng đồng AI mã nguồn mở đang e ngại sự kiểm soát của các tập đoàn.
Những thách thức phía trước
Tiềm năng mà DePIN 2.0 mang lại là vô cùng to lớn, nhưng nó cũng không thiếu những thách thức lớn.
Tính nhất quán so với thị trường giao ngay: AWS cung cấp độ tin cậy được đảm bảo, được hỗ trợ bởi SLA. Hầu hết các mạng DePIN hiện nay là "thị trường giao ngay" - rất phù hợp cho các tác vụ xử lý hàng loạt, dựng hình hoặc đào tạo, nhưng ít phù hợp hơn cho các ứng dụng sản xuất quan trọng, yêu cầu độ trễ thấp. Thu hẹp khoảng cách này là điều cần thiết.
Hiệu ứng mạng lưới và tính thanh khoản: Một thị trường hai chiều cần cả nguồn cung (nhà cung cấp) và cầu (người dùng). Các mạng lưới ban đầu đang khởi động guồng quay này bằng token. Duy trì nó bằng nhu cầu tự nhiên, dựa trên phí là thử thách tiếp theo.
Sự không chắc chắn về quy định: Việc vận hành toàn cầu với các nhà điều hành nút ẩn danh hoặc Bút danh tạo ra những vùng xám pháp lý, đặc biệt đối với các khối lượng công việc nhạy cảm về dữ liệu. Các kỹ thuật điện toán bảo mật như điện toán bí mật và mã hóa đồng hình sẽ rất quan trọng.
Rủi ro tập trung hóa trong bối cảnh phân quyền: Có xu hướng tập trung hóa việc cung cấp tài nguyên vào tay các nhà điều hành chuyên nghiệp hơn là một "mạng lưới của người dân" thực sự. Điều này không nhất thiết gây ảnh hưởng xấu đến độ tin cậy, nhưng nó thách thức tinh thần ban đầu.
Kết luận: Tương lai là sự kết hợp giữa công nghệ và truyền thống, và nó đang được xây dựng ngay bây giờ.
DePIN 2.0 không phải là về sự sụp đổ tức thì của AWS. Đó là một điều viễn tưởng. Nó là về việc tách rời các thành phần của điện toán đám mây. Giống như AWS đã tách rời các trung tâm dữ liệu vật lý, DePIN 2.0 đang bắt đầu tách rời chính AWS cho các khối lượng công việc cụ thể, có hiệu quả cao.
Tương lai có lẽ sẽ là mô hình lai. Một công ty có thể chạy giao diện người dùng (frontend) trên AWS để đảm bảo độ tin cậy, huấn luyện AI theo lô trên io.net hoặc Render để tiết kiệm chi phí, và xử lý dữ liệu nhạy cảm về quyền riêng tư trên mạng sử dụng điện toán bảo mật. Chiến lược đa đám mây, phi tập trung này tối đa hóa khả năng phục hồi và giảm thiểu chi phí cũng như sự phụ thuộc vào một nhà cung cấp duy nhất.
Các mạng lưới được xem xét ở đây—Render, Akash, io.net , Together AI và những mạng lưới khác đang nổi lên—đang vượt ra khỏi giai đoạn chứng minh khái niệm. Chúng có các mạng lưới hoạt động thực tế, xử lý các tác vụ thực cho các công ty thực, từ các hãng phim Hollywood đến các công ty AI tỷ đô. Chúng đang xây dựng các khuôn khổ kinh tế và kỹ thuật để làm cho điện toán phân tán không chỉ khả thi mà còn vượt trội cho thế hệ internet tiếp theo: một internet thuộc sở hữu của người dùng, được vận hành bởi những người tham gia và có khả năng phục hồi nhờ chính thiết kế của nó. Kỷ nguyên của điện toán phân tán không còn là buổi bình minh nữa; nó đã hiện hữu và đang tích cực viết lại các quy tắc của điện toán đám mây.





