原创

DePIN 2.0:抛开炒作,这些网路正在真正取代 AWS 进行去中心化运算

本文为机器翻译
展示原文

多年来,去中心化基础设施的愿景一直徘徊在地平线上,但往往更像是海市蜃楼而非绿洲。第一波去中心化物理基础设施网络(DePIN 1.0)取得了令人瞩目的开端,主要集中在存储和带宽方面。一些项目证明,我们可以集体托管文件或共享闲置的互联网资源,从而在与AWS S3或Cloudflare等巨头的竞争中开辟出一片天地。然而,当涉及到云计算的核心——原始的、可扩展的、可编程的计算能力时,找到一个能够替代亚马逊网络服务(AWS)、谷歌云和微软Azure的可行方案似乎遥不可及。协调全球匿名硬件以可靠地运行通用计算的复杂性令人叹为观止。但新的篇章正在书写。DePIN 2.0应运而生:它标志着从被动资源提供到主动、智能且经济高效的去中心化计算网络的范式转变,这些网络不再仅仅是实验性的,而是正在积极地取代AWS,用于特定的、高价值的工作负载。

要理解这种转变,我们首先必须诊断传统云的局限性。AWS 的集中式效率令人惊叹,但它也存在固有的权衡取舍:厂商锁定、不透明且可能螺旋式上涨的定价、数据地缘政治集中以及单点故障(包括技术和监管方面的故障)。对于新兴的应用类型——人工智能训练和推理、视频渲染、科学模拟以及隐私保护数据处理——这些权衡取舍正变得难以克服。DePIN 2.0 网络应运而生,旨在利用这一漏洞,其方式并非构建 AWS 的单一克隆版本,而是构建一个全球分布式、代币激励的超级计算机,并针对这些新范式进行优化。

演进历程:从 DePIN 1.0 到以计算为中心的 2.0

DePIN 1.0 的核心在于聚合闲置资源。可以把它想象成存储领域的Filecoin或无线覆盖领域的 Helium。其模式很简单:用代币激励用户接入硬件,并创建一个资源交易市场。然而,计算资源并非像硬盘空间那样的商品。它具有异构性(CPU、GPU、专用 ASIC),对性能要求极高,并且需要低延迟的协调。计算出错的后果比文件丢失更严重。

DePIN 2.0 网络吸取了这些挑战的经验教训,并具有以下几个关键优势:

· 垂直专业化:领先的网络不再是“通用型”网络,而是专注于特定应用领域。其中最突出的是人工智能和GPU计算。全球GPU短缺,加上人工智能初创公司永无止境的需求,共同造就了这一趋势。如今,​​网络已针对机器学习工作负载进行了专门优化。

· 先进的协调与验证:如今,存储空间不再仅仅是证明。新的共识机制和密码学证明(例如零知识证明)被用于验证计算是否正确且忠实地执行,这一概念被称为“可验证计算”。这有助于在不可信的网络中建立信任。

· 经济深度和飞轮效应:代币经济学已经超越了简单的“分享赚取收益”。代币现在协调复杂的资源市场,质押可以保护网络免受恶意提供者(惩罚)的侵害,并且所捕获的价值在资源提供者(提供商)和消费者(开发者、公司)之间更直接地流动。

· 无缝的开发者体验:复杂性一直是阻碍其普及的最大障碍。DePIN 2.0 项目正在构建抽象层,使开发者能够以几乎与 AWS 相同的便捷方式部署工作负载——使用容器、虚拟机或熟悉的 API——而网络则负责底层去中心化的编排。

架构师:构建去中心化 AWS 的网络

让我们从理论转向实践。以下是引领 DePIN 2.0 计算革命的几大网络:

1. Render Network:渲染和人工智能领域的GPU强大引擎 Render可能是这份榜单中最成熟、运营最完善的网络。它成功地从专注于去中心化图形渲染(直接挑战AWS的EC2 G4实例的图形处理能力)转型为人工智能计算领域的领军力量。其节点运营商网络(通常是拥有闲置GPU的工作室)将GPU算力出租给艺术家和人工智能研究人员。Render成功的关键在于其强大的生态系统:它与Octane、Blender等热门工具以及现在的人工智能框架无缝集成。对于需要微调模型的人工智能初创公司而言,Render提供了一个分布式的高端GPU池(例如RTX 4090或A100),其价格通常比AWS的现货市场低得多,也更可预测,而且没有厂商锁定。这表明,专用的高吞吐量计算网络可以实现真正的规模化和实用性。

2. Akash Network:面向通用工作负载的超级云 如果说 Render 是 GPU 领域的专家,那么 Akash 正在构建“超级云”——一个面向任何云工作负载的去中心化市场。它采用反向拍卖模式,用户提出自身需求(CPU、GPU、内存),服务提供商竞标托管其容器化部署。出价最低者胜出。这创造了一个竞争激烈的开放计算市场。Akash 的精妙之处在于其通用性;它可以运行 AI 工作负载、Web 服务器、数据库或游戏服务器。近期 GPU 的集成更是颠覆了游戏规则,吸引了大量新的服务提供商和用户。开发者在 Akash 上部署 TensorFlow 或 PyTorch 容器的方式几乎与在 AWS Elastic Kubernetes Service (EKS) 上完全相同,但成本通常降低 70-80%。它是去中心化领域中最接近 AWS EC2 的平台,证明了该模式适用于各种应用。

3. io.net 面向机器学习的分布式 GPU 云平台。io.net凭借其对人工智能训练和推理中最迫切痛点——集群式 GPU 计算——的精准把握,迅速崛起。虽然其他网络也提供 GPU 访问,但io.net 的独特之处在于,它将来自独立数据中心、加密货币矿工(使用改造后的矿机)和消费者的闲置 GPU 聚合到一个去中心化的集群网络中,使其运行起来如同一个庞大的单一 GPU。这正是其核心创新点。人工智能公司可以通过io.net的平台租用包含数百甚至数千个 GPU 的集群来训练大型语言模型,而无需处理单独采购 GPU 的复杂配置流程。通过利用全球地理分布的硬件资源,io.net 旨在提供无与伦比的规模和弹性,直接挑战 AWS 的 SageMaker 和 EC2 UltraClusters。

4. Together AI:去中心化 AI 研究平台 Together AI 采取了一种略有不同但同样至关重要的方法。它并非着眼于原始硬件聚合,而是致力于构建一个用于 AI 研究和部署的全栈式去中心化平台。它提供开源 AI 模型、推理 API,以及至关重要的分布式云平台,用于训练和运行这些模型。通过整合研究、软件和去中心化基础设施,它创建了一个与 OpenAI(运行在 Azure 上)或 Google 的 Vertex AI 等封闭生态系统截然不同的统一方案。他们的“Together 去中心化云”汇集了来自合作伙伴和个人的 GPU,为开发者提供了一个统一的接口,让他们能够基于开放模型和去中心化计算进行开发——这对于警惕企业控制的开源 AI 社区而言,是一个极具吸引力的理念和技术方案。

未来面临的挑战

DePIN 2.0 的前景非常广阔,但它也面临着严峻的挑战。

稳定性与现货市场: AWS 提供有保障的、SLA 支持的可靠性。目前大多数 DePIN 网络都属于“现货市场”模式——非常适合批量作业、渲染或培训,但不太适合任务关键型、低延迟的生产应用。弥合这一差距至关重要。

网络效应与流动性:双边市场需要供给方(提供商)和需求方(用户)。早期网络正利用代币启动这一飞轮效应。如何依靠自然增长的、基于手续费的需求来维持这一飞轮效应,是下一个考验。

监管不确定性:在全球范围内使用匿名或伪匿名节点运营商会带来法律灰色地带,尤其对于数据敏感型工作负载而言更是如此。诸如保密计算和同态加密等保护隐私的计算技术将至关重要。

去中心化中的中心化风险:资源供给往往集中在专业运营商手中,而非真正意义上的“人民网络”中。这未必会影响可靠性,但却挑战了去中心化的初衷。

结论:未来是混合型的,而且它正在构建中

DePIN 2.0 并非指 AWS 一夜之间崩溃,那只是幻想。它指的是云服务的解构。正如 AWS 解构了物理数据中心一样,DePIN 2.0 也开始针对特定的、高杠杆工作负载,对 AWS 本身进行解构。

未来很可能是混合云模式。一家公司可能会将前端部署在 AWS 上以确保可靠性,将批量 AI 训练部署在io.net或 Render 上以提高成本效益,并将涉及隐私敏感的数据处理部署在具有保密计算能力的网络上。这种多云、去中心化的策略能够最大限度地提高弹性,同时最大限度地降低成本和厂商锁定风险。

本文评述的网络——Render、Akash、 io.net 、Together AI 以及其他正在崛起的网络——已经超越了概念验证阶段。它们拥有实时运行的网络,为从好莱坞制片厂到人工智能独角兽等真实企业处理实际任务。它们正在构建经济和技术框架,使去中心化计算不仅可行,而且在下一代互联网中占据主导地位:一个由用户所有、由参与者驱动、并因其设计本身就具有韧性的互联网。去中心化计算的时代不再是黎明,它已经到来,并且正在积极地改写云计算的规则。

相关赛道:
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
10
收藏
评论