Viết bởi: Geng Kai, Eric, DFG
giới thiệu
Kể từ năm 2023, cả AI và DePIN đều là xu hướng nóng trong Web3, trong đó AI có giá trị vốn hóa thị trường là 30 tỷ USD và DePIN có giá trị vốn hóa thị trường là 23 tỷ USD . Hai danh mục này rất lớn và mỗi danh mục bao gồm nhiều giao thức khác nhau phục vụ các khu vực và nhu cầu khác nhau và cần được đề cập riêng. Tuy nhiên, bài viết này nhằm mục đích thảo luận về sự giao thoa giữa hai điều này và xem xét sự phát triển của các giao thức trong lĩnh vực này.
Trong kho công nghệ AI, mạng DePIN cung cấp tiện ích cho AI thông qua tài nguyên máy tính. Sự phát triển của các công ty công nghệ lớn đã dẫn đến tình trạng thiếu GPU , điều này khiến các nhà phát triển khác đang xây dựng mô hình AI của riêng họ không có đủ GPU để tính toán. Điều này thường dẫn đến việc các nhà phát triển lựa chọn các nhà cung cấp đám mây tập trung, tạo ra sự kém hiệu quả do phải ký các hợp đồng dài hạn, không linh hoạt cho phần cứng hiệu suất cao.
Về cơ bản, DePIN cung cấp một giải pháp thay thế linh hoạt và tiết kiệm chi phí hơn bằng cách sử dụng phần thưởng token để khích lệ đóng góp tài nguyên phù hợp với mục tiêu của mạng. DePIN trong AI cung cấp nguồn tài nguyên GPU từ các chủ sở hữu cá nhân đến trung tâm dữ liệu, tạo thành nguồn cung cấp thống nhất cho những người dùng cần quyền truy cập vào phần cứng. Các mạng DePIN này không chỉ cung cấp khả năng tùy chỉnh và quyền truy cập theo yêu cầu cho các nhà phát triển cần sức mạnh tính toán mà còn mang lại thu nhập bổ sung cho chủ sở hữu GPU, những người có thể gặp khó khăn trong việc kiếm tiền khi không hoạt động.
Có rất nhiều mạng AI DePIN trên thị trường nên khó có thể xác định được sự khác biệt giữa chúng và tìm đúng mạng mà bạn cần. Trong phần tiếp theo, chúng ta sẽ khám phá xem mỗi giao thức thực hiện chức năng gì và chúng cố gắng đạt được điều gì, cũng như một số điểm nổi bật cụ thể mà chúng đã đạt được.
Tổng quan về mạng AI DePIN
Mỗi dự án được đề cập ở đây đều có mục đích tương tự - mạng lưới thị trường điện toán GPU. Mục đích của phần này của bài viết là xem xét những điểm nổi bật của từng dự án, trọng tâm thị trường của chúng và những gì chúng đạt được. Chúng ta có thể hiểu rõ hơn về sự khác biệt của họ bằng cách hiểu rõ cơ sở hạ tầng và sản phẩm chính của họ, những nội dung này sẽ được đề cập trong phần tiếp theo.
Render là công ty tiên phong trong mạng P2P cung cấp sức mạnh tính toán GPU. Trước đây, nó tập trung vào kết xuất đồ họa để tạo nội dung và sau đó mở rộng phạm vi của mình để bao gồm nhiệm vụ điện toán AI từ trường phản xạ thần kinh (NeRF) đến AI tổng hợp bằng cách tích hợp các bộ công cụ như Stable. Khuếch tán. .
Những điều thú vị :
Được thành lập bởi OTOY, một công ty đồ họa đám mây với công nghệ từng đoạt giải Oscar
Mạng GPU được sử dụng bởi các công ty lớn trong ngành giải trí như Paramount Pictures, PUBG, Star Trek, v.v.
Làm việc với Stability AI và Endeavour để tận dụng GPU của Render nhằm tích hợp các mô hình AI của họ với quy trình kết xuất nội dung 3D
Phê duyệt nhiều máy trạm điện toán và tích hợp GPU mạng DePIN hơn
Akash tự gọi mình là "phiên bản lưu trữ của Airbnb", định vị mình là " siêu đám mây " thay thế cho các nền tảng truyền thống như AWS hỗ trợ lưu trữ, tính toán GPU và CPU. Tận dụng các công cụ thân thiện với nhà phát triển như Akash Container Platform và nút điện toán do Kubernetes quản lý , nó cho phép triển khai liền mạch phần mềm trên hoàn cảnh để chạy bất kỳ ứng dụng gốc đám mây nào.
Những điều thú vị :
Nhắm mục tiêu cho một loạt nhiệm vụ điện toán từ điện toán thông thường đến lưu trữ web
AkashML cho phép mạng GPU của mình chạy hơn 15.000 mô hình trên Ôm mặt trong khi tích hợp với Ôm mặt
Akash lưu trữ một số ứng dụng đáng chú ý như chatbot mô hình LLM của Mistral AI, mô hình chuyển văn bản thành hình ảnh SDXL của Stability AI và mô hình cơ sở mới AT-1 của Thumper AI
Nền tảng xây dựng Metaverse, triển khai AI và học tập liên kết đang tận dụng Supercloud
io.net cung cấp quyền truy cập vào các cụm đám mây GPU phân tán dành riêng cho các trường hợp sử dụng AI và ML. Nó tổng hợp GPU từ các trung tâm dữ liệu , thợ đào crypto và các mạng phi tập trung khác. Công ty, trước đây là một công ty thương mại định lượng, đã chuyển hướng sang việc kinh doanh hiện tại sau khi giá GPU hiệu suất cao tăng .
Những điều thú vị :
IO-SDK của nó tương thích với các khung như PyTorch và Tensorflow, đồng thời kiến trúc nhiều lớp của nó có thể mở rộng tự động và linh hoạt dựa trên nhu cầu điện toán.
Hỗ trợ tạo 3 loại cụm khác nhau , có thể bắt đầu sau 2 phút
Những nỗ lực hợp tác mạnh mẽ để tích hợp GPU từ các mạng DePIN khác bao gồm Render, Filecoin, Aethir và Exabits
Gensyn cung cấp khả năng tính toán GPU tập trung vào tính toán học máy và học độ sâu. Nó tuyên bố sẽ vượt trội hơn phương pháp hiện có bằng cách sử dụng kết hợp các khái niệm như bằng chứng đã học để xác thực công việc, giao thức xác định chính xác dựa trên biểu đồ để chạy lại các công việc xác thực và trò chơi khích lệ kiểu Truebit liên quan đến việc đặt cọc và cắt giảm các nhà cung cấp máy tính, đạt được . cơ chế xác minh hiệu quả hơn.
Những điều thú vị :
Chi phí theo giờ của GPU tương đương V100 dự kiến vào khoảng 0,40 USD/giờ, giúp tiết kiệm đáng kể chi phí
Xếp chồng bằng chứng cho phép tinh chỉnh mô hình cơ sở được đào tạo trước cho nhiệm vụ cụ thể hơn
Các mô hình cơ bản này sẽ được phi tập trung, sở hữu toàn cầu và cung cấp chức năng bổ sung ngoài mạng máy tính phần cứng
Aethir được trang bị độc quyền GPU dành cho doanh nghiệp và tập trung vào các lĩnh vực chuyên sâu về điện toán, chủ yếu là trí tuệ nhân tạo, học máy (ML), chơi game trên nền tảng đám mây, v.v. Các bộ chứa trong mạng của nó hoạt động như điểm cuối ảo để thực thi các ứng dụng dựa trên đám mây, di chuyển khối lượng công việc từ thiết bị cục bộ sang bộ chứa để có trải nghiệm có độ trễ thấp. Để đảm bảo dịch vụ chất lượng cao cho người dùng, họ điều chỉnh tài nguyên bằng cách di chuyển GPU đến gần nguồn dữ liệu hơn dựa trên nhu cầu và vị trí.
Những điều thú vị :
Ngoài trí tuệ nhân tạo và chơi game trên nền tảng đám mây, Aethir còn mở rộng sang dịch vụ điện thoại đám mây và hợp tác với APhone để ra mắt điện thoại thông minh đám mây phi tập trung
Quan hệ đối tác mở rộng với các công ty Web2 lớn như NVIDIA, Super Micro, HPE, Foxconn và Well Link
Nhiều đối tác trong Web3 như CARV, Magic Eden, Sequence, Impossible Finance, v.v.
Phala Network hoạt động như lớp thực thi các giải pháp AI Web3. Blockchain của nó là một giải pháp điện toán đám mây không đáng tin cậy, xử lý các vấn đề về quyền riêng tư bằng cách sử dụng thiết kế Hoàn cảnh thực thi tin cậy (TEE). Lớp thực thi của nó không được sử dụng làm lớp điện toán cho các mô hình AI, nhưng cho phép AI Agent được kiểm soát bằng các hợp đồng thông minh trên Chuỗi.
Những điều thú vị :
Phục vụ như một giao thức đồng xử lý để tính toán có thể xác minh, đồng thời cho phép AI Agent sử dụng tài nguyên Chuỗi
Hợp đồng đại lý trí tuệ nhân tạo của nó cung cấp quyền truy cập vào các mô hình ngôn ngữ quy mô lớn hàng đầu như OpenAI, Llama, Claude và Ôm mặt thông qua Redpill
Tương lai sẽ bao gồm nhiều hệ thống chứng minh như zk-proofs, tính toán bên long(MPC) và crypto đồng hình hoàn toàn (FHE).
Trong tương lai, các GPU TEE khác như H100 sẽ được hỗ trợ để cải thiện khả năng tính toán.
So sánh dự án
Kết xuất | Akash | io.net | gensyn | Aethir | Phala | |
phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
Trọng tâm việc kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | trí tuệ nhân tạo | trí tuệ nhân tạo | Trí tuệ nhân tạo, trò chơi trên nền tảng đám mây và viễn thông | Thực thi AI trên Chuỗi |
Loại nhiệm vụ AI | lý luận | Cả hai | Cả hai | xe lửa | xe lửa | thực hiện |
định giá công việc | định giá dựa trên hiệu suất | đấu giá ngược | giá cả thị trường | giá cả thị trường | Hệ thống đấu thầu | Tính vốn chủ sở hữu |
Blockchain | Solana | Cosmos | Solana | gensyn | Arbitrum | Polkadot |
quyền riêng tư dữ liệu | Crypto & Băm | xác thực mTLS | crypto dữ liệu | bản đồ an ninh | crypto | TEE |
chi phí công việc | 0,5-5% mỗi công việc | 20%USDC, 4% AKT | 2% USDC, 0,25% Chi phí dự phòng | giá thấp | 20% mỗi phiên | Tỷ lệ thuận với số tiền cam kết |
Sự an toàn | Kết xuất bằng chứng | Bằng chứng cổ phần | Chứng minh tính toán | Bằng chứng cổ phần | Bằng chứng về khả năng kết xuất | Kế thừa từ Chuỗi rơle |
Chứng chỉ hoàn tất | - | - | bằng chứng khóa thời gian | Học chứng minh | Đưa ra bằng chứng về công việc | Chứng nhận TEE |
đảm bảo chất lượng | tranh luận | - | - | người xác minh và người tố giác | Nút nút | chứng thực từ xa |
cụm GPU | KHÔNG | Đúng | Đúng | Đúng | Đúng | KHÔNG |
tầm quan trọng
Sự sẵn có của các cụm và tính toán song song
Khung điện toán phân tán triển khai các cụm GPU để cung cấp hoạt động đào tạo hiệu quả hơn mà không ảnh hưởng đến độ chính xác của mô hình đồng thời nâng cao mở rộng . Việc đào tạo các mô hình AI phức tạp hơn đòi hỏi sức mạnh tính toán mạnh mẽ, thường phải dựa vào điện toán phân tán để đáp ứng nhu cầu của nó. Để so sánh, mô hình GPT-4 của OpenAI có hơn 1,8 nghìn tỷ thông số và được đào tạo trong 3-4 tháng bằng cách sử dụng khoảng 25.000 GPU Nvidia A100 trong 128 cụm .
Trước đây, Render và Akash chỉ cung cấp GPU cho một mục đích duy nhất, điều này có thể hạn chế nhu cầu thị trường về GPU của họ. Tuy nhiên, hầu hết các dự án lớn hiện nay đều kết hợp các cụm để cho phép tính toán song song. io.net đang hợp tác với các dự án khác như Render, Filecoin và Aethir để kết hợp nhiều GPU hơn vào mạng của mình và đã triển khai thành công hơn 3.800 cụm trong Q1'24 . Mặc dù Render không hỗ trợ phân cụm nhưng nó hoạt động tương tự bằng cách chia một khung hình thành nhiều nút khác nhau để xử lý đồng thời các phạm vi khung hình khác nhau. Phala hiện chỉ hỗ trợ CPU nhưng cho phép phân cụm nhân viên CPU.
Việc kết hợp các khung phân cụm vào mạng quy trình làm việc AI là quan trọng, nhưng số lượng và loại GPU phân cụm cần thiết để đáp ứng nhu cầu của các nhà phát triển AI là một vấn đề riêng biệt mà chúng ta sẽ thảo luận trong phần sau.
quyền riêng tư dữ liệu
Việc phát triển các mô hình AI đòi hỏi phải sử dụng các tập dữ liệu lượng lớn , có thể đến từ nhiều dữ liệu và dưới nhiều hình thức khác nhau. Các tập dữ liệu nhạy cảm như hồ sơ y tế cá nhân và dữ liệu tài chính của người dùng có thể có rủi ro bị lộ bởi các nhà cung cấp mô hình. Samsung đã cấm sử dụng ChatGPT trong nội bộ do lo ngại rằng việc tải mã nhạy cảm lên nền tảng sẽ vi phạm quyền riêng tư và vụ rò rỉ dữ liệu riêng tư 38 TB của Microsoft càng nhấn mạnh tầm quan trọng của việc thực hiện các biện pháp bảo mật đầy đủ khi sử dụng AI. Do đó, việc có nhiều phương pháp bảo mật dữ liệu khác nhau là rất quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp dữ liệu .
Hầu hết các dự án được đề cập đều sử dụng một số hình thức crypto dữ liệu để bảo vệ quyền riêng tư dữ liệu . Crypto dữ liệu đảm bảo rằng việc truyền dữ liệu qua mạng từ nhà cung cấp dữ liệu đến nhà cung cấp mô hình (người nhận dữ liệu ) được bảo vệ. Kết xuất sử dụng crypto và băm khi xuất bản kết quả kết xuất trở lại mạng, trong khi io.net và Gensyn sử dụng một số dạng crypto dữ liệu . Akash sử dụng xác thực mTLS, chỉ cho phép các nhà cung cấp được người thuê chọn nhận dữ liệu.
Tuy nhiên, io.net gần đây đã hợp tác với Mind Network để giới thiệu crypto đồng hình hoàn toàn (FHE) , cho phép xử lý dữ liệu crypto mà không cần giải mã trước . Sự đổi mới này đảm bảo quyền riêng tư dữ liệu tốt hơn các công nghệ crypto hiện có bằng cách cho phép truyền dữ liệu một cách an toàn cho mục đích đào tạo mà không tiết lộ danh tính và nội dung dữ liệu .
Phala Network giới thiệu TEE, vùng bảo mật trong bộ xử lý chính của thiết bị được kết nối. Thông qua cơ chế cách ly này, nó ngăn chặn các tiến trình bên ngoài truy cập hoặc sửa đổi dữ liệu , bất kể mức độ cấp phép của chúng, ngay cả những cá nhân có quyền truy cập vật lý vào máy. Ngoài TEE, nó cũng kết hợp việc sử dụng zk-proofs trong trình xác thực zkDCAP và giao diện dòng lệnh jtee cho các chương trình tích hợp với RiscZero zkVM.
Giấy chứng nhận hoàn thành tính toán và kiểm tra chất lượng
Các dự án này cung cấp GPU cung cấp sức mạnh tính toán cho sê-ri dịch vụ. Vì các dịch vụ này bao gồm từ kết xuất đồ họa đến tính toán AI nên chất lượng cuối cùng của nhiệm vụ đó có thể không phải lúc nào cũng đáp ứng tiêu chuẩn của người dùng. Một hình thức bằng chứng hoàn thành có thể được sử dụng để chỉ ra rằng GPU cụ thể mà người dùng thuê thực sự được sử dụng để chạy dịch vụ được yêu cầu và việc kiểm tra chất lượng sẽ có lợi cho người dùng yêu cầu hoàn thành công việc đó.
Sau khi quá trình tính toán hoàn tất, cả Gensyn và Aethir đều đưa ra bằng chứng cho thấy công việc đã hoàn thành, trong khi bằng chứng của io.net cho thấy hiệu suất của GPU được thuê đã được tận dụng tối đa và không gặp sự cố. Cả Gensyn và Aethir đều thực hiện kiểm tra chất lượng các phép tính đã hoàn thành. Đối với Gensyn, nó sử dụng trình xác nhận để chạy lại các phần của bằng chứng được tạo để kiểm tra bằng chứng, trong khi người tố giác hoạt động như một lớp kiểm tra khác đối với trình xác thực. Đồng thời, Aethir sử dụng nút kiểm tra để xác định chất lượng dịch vụ và xử phạt các dịch vụ kém chất lượng. Render khuyên bạn nên sử dụng quy trình giải quyết tranh chấp để cắt một nút nếu hội đồng đánh giá nhận thấy nút có vấn đề. Sau khi Phala hoàn thành, chứng chỉ TEE sẽ được tạo để đảm bảo rằng AI Agent thực hiện các hoạt động được yêu cầu trên Chuỗi.
Dữ liệu phần cứng
Kết xuất | Akash | io.net | gensyn | Aethir | Phala | |
Số lượng GPU | 38177 | - | - | |||
Số lượng CPU | 5433 | - | - | 30000+ | ||
Số lượng H100/A100 | - | - | - | |||
Phí H100/giờ | - | $1,46 | $1,19 | - | - | - |
Phí A100/giờ | - | $1,37 | $1,50 | 0,55 USD (ước tính) | 0,33 USD (ước tính) | - |
Yêu cầu GPU hiệu suất cao
Vì việc đào tạo mô hình AI yêu cầu GPU hoạt động tốt nhất nên họ có xu hướng sử dụng GPU như A100 và H100 của Nvidia, mang lại chất lượng tốt nhất mặc dù loại sau này có giá cao trên thị trường. Việc xem A100 không chỉ có thể xử lý mọi khối lượng công việc mà còn thực hiện nhanh hơn như thế nào chỉ cho thấy thị trường đang coi trọng phần cứng này như thế nào. Vì hiệu suất suy luận của H100 nhanh hơn gấp 4 lần so với A100 nên giờ đây nó đã trở thành GPU được lựa chọn, đặc biệt đối với các công ty lớn đang đào tạo LLM của riêng họ.
Để một nhà cung cấp thị trường GPU phi tập trung có thể cạnh tranh với các đối thủ Web2 của mình, họ không chỉ phải đưa ra mức giá thấp hơn mà còn phải đáp ứng nhu cầu thực tế của thị trường. Vào năm 2023, Nvidia đã vận chuyển hơn 500.000 thiết bị H100 cho các công ty công nghệ lớn, tập trung , khiến việc mua càng nhiều phần cứng tương đương càng tốn kém và khó khăn để cạnh tranh với các nhà cung cấp đám mây lớn. Do đó, điều quan trọng là phải xem xét lượng phần cứng mà các dự án này có thể mang đến mạng của họ với chi phí thấp để mở rộng các dịch vụ này tới cơ sở khách hàng lớn hơn.
Mặc dù mỗi dự án đều có việc kinh doanh trong điện toán AI và ML, nhưng chúng khác nhau về khả năng cung cấp điện toán. Akash chỉ có tổng cộng hơn 150 đơn vị H100 và A100, trong khi io.net và Aethir mỗi đơn vị có hơn 2.000 đơn vị. Thông thường, việc đào tạo trước LLM hoặc tạo mô hình từ đầu yêu cầu ít nhất 248 đến hơn 2000 GPU trong một cụm , vì vậy hai dự án sau phù hợp hơn cho việc tính toán mô hình lớn.
Tùy thuộc vào quy mô cụm mà các nhà phát triển đó yêu cầu, chi phí của các dịch vụ GPU phi tập trung này hiện có trên thị trường đã thấp hơn nhiều so với các dịch vụ GPU tập trung. Cả Gensyn và Aethir đều tuyên bố có thể thuê một chiếc A100 với giá chưa đến 1 USD một giờ, nhưng điều này vẫn cần được chứng minh theo thời gian.
Các cụm GPU gắn mạng có lượng lớn và chi phí mỗi giờ ít hơn, nhưng chúng gặp phải một vấn đề là bộ nhớ hạn chế so với GPU gắn NVLink. NVLink hỗ trợ giao tiếp trực tiếp giữa nhiều GPU , loại bỏ nhu cầu truyền dữ liệu giữa CPU và GPU, cho phép băng thông cao và độ trễ thấp. So với GPU gắn mạng, GPU gắn NVLink phù hợp nhất với LLMS có nhiều tham số và tập dữ liệu lớn vì chúng yêu cầu hiệu năng cao và tính toán chuyên sâu.
Tuy nhiên, đối với những người có nhu cầu về khối lượng công việc động hoặc những người cần tính linh hoạt và khả năng phân phối khối lượng công việc trên nhiều nút, mạng GPU phi tập trung vẫn có thể cung cấp sức mạnh tính toán mạnh mẽ và mở rộng cho nhiệm vụ điện toán phân tán. Bằng cách cung cấp giải pháp thay thế hiệu quả hơn về mặt chi phí cho các nhà cung cấp dữ liệu hoặc đám mây tập trung, các mạng này mở ra sự độc quyền để xây dựng nhiều trường hợp sử dụng AI và ML hơn so với các mô hình AI tập trung.
Cung cấp GPU/CPU cấp độ người tiêu dùng
Mặc dù GPU là đơn vị xử lý chính cần thiết cho việc kết xuất và tính toán nhưng CPU cũng đóng vai trò quan trọng trong việc đào tạo các mô hình AI. CPU có thể được sử dụng cho nhiều phần đào tạo, từ xử lý trước dữ liệu cho đến quản lý tài nguyên bộ nhớ , điều này rất hữu ích cho các nhà phát triển đang phát triển mô hình. GPU tiêu dùng cũng có thể được sử dụng cho nhiệm vụ ít chuyên sâu hơn, chẳng hạn như tinh chỉnh các mô hình đã được đào tạo trước hoặc đào tạo các mô hình nhỏ hơn trên dữ liệu nhỏ hơn với chi phí phải chăng hơn .
Trong khi các dự án như Gensyn và Aethir chủ yếu tập trung vào GPU doanh nghiệp, vì hơn 85% tài nguyên GPU của người tiêu dùng không hoạt động, các dự án khác như Render, Akash và io.net cũng có thể phục vụ phân khúc thị trường này. Việc cung cấp các tùy chọn này cho phép họ phát triển phân khúc thị trường của riêng mình, cho phép họ tập trung vào điện toán chuyên sâu quy mô lớn, kết xuất quy mô nhỏ tổng quát hơn hoặc kết hợp giữa cả hai.
Tóm lại là
Lĩnh vực AI DePIN vẫn còn tương đối mới và phải đối mặt với những thách thức riêng. Các giải pháp của họ bị chỉ trích vì tính khả thi và gặp phải những thất bại. Ví dụ: io.net bị cáo buộc ngụy tạo số GPU trên mạng của mình , nhưng sau đó đã giải quyết vấn đề bằng cách giới thiệu quy trình Bằng chứng công việc để xác thực thiết bị và ngăn chặn các cuộc tấn công Phù thủy .
Tuy nhiên, số lượng nhiệm vụ và phần cứng được thực thi trong các mạng GPU phi tập trung này đã tăng lên đáng kể. Khối lượng nhiệm vụ ngày càng tăng được thực hiện trên các mạng này làm nổi bật nhu cầu tăng trưởng về các giải pháp thay thế cho tài nguyên phần cứng của nhà cung cấp đám mây Web2. Đồng thời, sự gia tăng nhanh chóng của các nhà cung cấp phần cứng trong các mạng này đã làm nổi bật nguồn cung chưa được sử dụng đúng mức trước đây. Xu hướng này càng thể hiện sự phù hợp với thị trường sản phẩm của mạng AI DePIN, vì chúng giải quyết hiệu quả cả thách thức từ phía cung và cầu.
Nhìn về phía trước, quỹ đạo của trí tuệ nhân tạo hướng tới một thị trường trị giá hàng nghìn tỷ đô la đang bùng nổ và chúng tôi cho rằng các mạng GPU phi tập trung này sẽ đóng vai trò quan trọng trong việc cung cấp cho các nhà phát triển các giải pháp thay thế điện toán hiệu quả về mặt chi phí. Bằng cách tận dụng mạng lưới của mình để liên tục thu hẹp khoảng cách giữa cung và cầu, các mạng này sẽ có những đóng góp đáng kể cho bối cảnh tương lai của cơ sở hạ tầng máy tính và trí tuệ nhân tạo.