利用演算法、算力与资料的力量,AI 技术的进步正在重新定义资料处理和智慧决策的边界。与此同时,DePIN 代表了从中心化基础设施向去中心化、基于区块链的网路的正规化转变。
随著世界迈向数位化转型的步伐不断加快,AI 和 DePIN (去中心化物理基础设施) 成为推动各行各业变革的潜在基础性技术。
DePIN:去中心化脱虚向实,数位经济中流砥柱
DePIN,是去中心化物理基础设施(Decentralized Physical Infrastructure)的缩写。从狭义上说,DePIN 主要指由分散式帐本技术支撑的传统物理基础设施的分散式网路,例如电力网路、通讯网路、定位网路等。从广义上说,所有由物理装置支撑的分散式网路都可以称之为 DePIN,例如储存网路、计算网路。

如果说 Crypto 在金融层面带来了去中心化的变革,那么 DePIN 就是实体经济中的去中心化方案。可以说,PoW 矿机,就是一种 DePIN。从第一天起,DePIN 就是 Web3 的核心支柱。
AI 三要素 —— 演算法、算力、资料,DePIN 独占其二
人工智慧的发展通常被认为依赖于三个关键的要素:演算法、算力和资料。演算法指驱动 AI 系统的数学模型和程式逻辑,算力指执行这些演算法所需的计算资源,资料是训练和优化 AI 模型的基础。

三要素中哪个最重要?ChatGPT 出现之前人们通常认为是演算法,不然学术会议、期刊论文也不会被一篇又一篇的演算法微调所填充。
可当 ChatGPT 与支撑其智慧的大语言模型 LLM 亮相之后,人们开始意识到后两者的重要性。海量的算力是模型得以诞生的前提,资料品质和多样性对于建立健壮和高效的 AI 系统至关重要,相比之下,对于演算法的要求不再如往常精益求精。
在大模型时代,AI 从精雕细琢变为大力飞砖,对算力与资料的需求与日俱增,而 DePIN 恰好能够提供。代币激励撬动市场,海量的消费级算力与储存将为大模型提供最好的养料。
AI 的去中心化不是可选项,而是必选项
当然有人会问,算力和资料,在 AWS 的机房中都有,而且在稳定性、使用体验方面都胜过 DePIN,为什么要选择 DePIN 而不是中心化的服务?
这种说法自然有其道理,毕竟纵观当下,几乎所有大模型都是由大型的网际网路企业直接或间接开发的,ChatGPT 的背后是微软,Gemini 的背后是 Google,中国的网际网路大厂几乎人手一个大模型。为何?因为只有大型的网际网路企业拥有足够的优质资料与雄厚财力支撑的算力。但这是不对的,人们已经不想再被网际网路巨头操纵一切。
一方面,中心化的 AI 具备资料隐私和安全风险,可能受到审查与控制;另一方面,网际网路巨头制造的 AI 会使人们进一步加强依赖性,并且导致市场集中化,提高创新壁垒。

人类不应该需要一个 AI 纪元的马丁路德了,人们应该有权利直接和神对话。
商业角度看 DePIN:降本增效是关键
哪怕抛开去中心化与中心化的价值观之争,从商业角度来看,将 DePIN 用于 AI 仍然有其可取之处。
首先,我们需要清晰地认识到,尽管网际网路巨头手中掌握了大量的高阶显示卡资源,散入民间的消费级显示卡组合起来也能构成非常可观的算力网路,也就是算力的长尾效应。
这类消费级显示卡,闲置率其实是非常高的。只要 DePIN 给到的激励能超过电费,使用者就有动力为网路贡献算力。同时,所有物理设施被使用者自身所管理,DePIN 网路无需负担中心化供应商无法避免的营运成本,只需关注协议设计本身。
对于资料而言,DePIN 网路通过边缘计算等方式,能够释放潜在资料的可用性,降低传输成本。同时,对于多数分散式储存网路而言,具备自动去重功能,减少了 AI 训练资料清洗的工作。
最后,DePIN 所带来的 Crypto 经济学增强了系统的容错空间,有望实现提供者、消费者、平台三赢的局面。

以防你不相信,UCLA 最新的研究表明相同成本下使用去中心化计算相比传统 GPU 丛集实现了 2.75 倍的效能,具体来说,快了 1.22 倍且便宜 4.83 倍。
筚路维艰:AIxDePIN 会遇到哪些挑战?
We choose to go to the moon in this decade and do the other things, not because they are easy, but because they are hard. ——John Fitzgerald Kennedy
运用 DePIN 的分散式储存与分散式计算无信任地构建人工智慧模型仍然具备许多挑战。
工作验证
从本质上,计算深度学习模型与 PoW 挖矿都是通用计算,最底层都是闸电路之间的讯号变化。宏观而言,PoW 挖矿是 「无用的计算」,通过无数的随机数生成与 hash 函式计算试图得出字首有 n 个 0 的 hash 值;而深度学习计算是 「有用的计算」,通过前向推导与反向推导计算出深度学习中每层的引数值,从而构建一个高效的 AI 模型。
事实是,PoW 挖矿这类 「无用的计算」 使用了 hash 函式,由原像计算像很容易,由像计算原像很难,所以任何人都能轻易、快速地验证计算的有效性;而对于深度学习模型的计算,由于层级化的结构,每层的输出都作为后一层的输入,因此验证计算的有效性需要执行之前的所有工作,无法简单有效地进行验证。

工作验证是非常关键的,否则,计算的提供者完全可以不进行计算,而提交一个随机生成的结果。
有一类想法是让不同的伺服器执行相同计算任务,通过重复执行并检验是否相同来验证工作的有效性。然而,绝大多数模型计算是非确定性的,即使在完全相同的计算环境下也无法复现相同结果,只能在统计意义上实现相似。另外,重复计算会导致成本的快速上升,这与 DePIN 降本增效的关键目标不相符。
另一类想法是 Optimistic 机制,先乐观地相信结果是经过有效计算的,同时允许任何人对计算结果进行检验,如果发现有错误,可以提交一个 Fraud Proof,协议对欺诈者进行罚没,并对举报者给予奖励。
并行化
之前提到,DePIN 撬动的主要是长尾的消费级算力市场,也就注定了单个装置所能提供的算力比较有限。对于大型 AI 模型而言,在单个装置上进行训练的时间会非常长,必须通过并行化的手段来缩短训练所需时间。
深度学习训练的并行化主要的难点在于前后任务之间的依赖性,这种依赖关系会导致并行化难以实现。
当前,深度学习训练的并行化主要分为资料并行与模型并行。
资料并行是指将资料分布在多台机器上,每台机器都储存一个模型的全部引数,使用本地的资料进行训练,最后对各个机器的引数进行聚合。资料并行在资料量很大时效果好,但需要同步通讯来聚合引数。
模型并行是当模型大小太大无法放入单个机器时,可以将模型分割在多台机器上,每台机器储存模型的一部分引数。前向和反向传播时需要不同机器之间通讯。模型并行在模型很大时有优势,但前后向传播时的通讯开销大。
对于不同层之间的梯度资讯,又可以分为同步更新与非同步更新。同步更新简单直接,但是会增加等待时间;非同步更新演算法等待时间短,但是会引入稳定性问题。

隐私
全球正在掀起保护个人隐私的思潮,各国政府都在加强对个人资料隐私安全的保护。尽管 AI 大量使用公开资料集,真正将不同 AI 模型区分开的还是各企业专有的使用者资料。
如何在训练过程中得到专有资料的好处同时不暴露隐私?如何保证构建的 AI 模型引数不被泄露?
这是隐私的两个方面,资料隐私与模型隐私。资料隐私保护的是使用者,而模型隐私保护的是构建模型的组织。在当前的情况下,资料隐私比模型隐私重要得多。
多种方案正在尝试解决隐私的问题。联邦学习通过在资料的源头进行训练,将资料留在本地,而模型引数进行传输,来保障资料隐私;而零知识证明可能会成为后起之秀。
案例分析:市场上有哪些优质专案?
Gensyn
Gensyn 是一个分散式计算网路,用于训练 AI 模型。该网路使用基于 Polkadot 的一层区块链来验证深度学习任务是否已正确执行,并通过命令触发支付。成立于 2020 年,2023 年 6 月披露一笔 4,300 万美元的 A 轮融资,a16z 领投。
Gensyn 使用基于梯度的优化过程的元资料来构建所执行工作的证书,并由多粒度、基于图形的精确协议和交叉评估器一致执行,以允许重新执行验证工作并比较一致性,并最终由链本身确认,来保证计算的有效性。为了进一步加强工作验证的可靠性,Gensyn 引入质押来建立激励。
系统中有四类参与者:提交者、求解者、验证者和举报者。
提交者是系统的终端使用者,提供将要计算的任务,并为已完成的工作单元付费。
求解器是系统的主要工作者,执行模型训练并生成证明以供验证者检查。
验证器是将非确定性训练过程与确定性线性计算联络起来的关键,复制部分求解器证明并将距离与预期阈值进行比较。
举报人是最后一道防线,检查验证者的工作并提出挑战,挑战通过后获得奖励。
求解者需要进行质押,举报者检验求解者的工作,如发现作恶,进行挑战,挑战通过后求解者质押的代币被罚没,举报者获得奖赏。
根据 Gensyn 的预测,该方案有望将训练成本降至中心化供应商的 1/5。

FedML
FedML 是一个去中心化协作的机器学习平台,用于在任何地方以任何规模进行去中心化和协作式 AI。更具体地说,FedML 提供了一个 MLOps 生态系统,可以训练、部署、监控和持续改进机器学习模型,同时以保护隐私的方式在组合资料、模型和计算资源上进行协作。成立于 2022 年,FedML 于 2023 年 3 月披露 600 万美元的种子轮融资。
FedML 由 FedML-API 和 FedML-core 两个关键元件构成,分别代表高阶 API 和底层 API。
FedML-core 包括分散式通讯和模型训练两个独立的模组。通讯模组负责不同工作者 / 客户端之间的底层通讯,基于 MPI;模型训练模组基于 PyTorch。
FedML-API 建立在 FedML-core 之上。借助 FedML-core,可以通过采用面向客户端的程式设计介面轻松实现新的分散式演算法。
FedML 团队最新的工作中证明,使用 FedML Nexus AI 在消费级 GPU RTX 4090 上进行 AI 模型推理,比 A100 便宜 20 倍,快 1.88 倍。

未来展望:DePIN 带来 AI 的民主化
有朝一日,AI 进一步发展为 AGI,彼时算力将成为事实上的通用货币,DePIN 使得这一过程提前发生。
AI 和 DePIN 的融合开启了一个崭新的技术增长点,为人工智慧的发展提供了巨大的机遇。DePIN 为 AI 提供了海量的分散式算力和资料,有助于训练更大规模的模型,实现更强的智慧。同时,DePIN 也使 AI 向著更加开放、安全、可靠的方向发展,减少对单一中心化基础设施的依赖。
展望未来,AI 和 DePIN 将不断协同发展。分散式网路将为训练超大模型提供强大基础,这些模型又将在 DePIN 的应用中发挥重要作用。在保护隐私和安全的同时,AI 也将助力 DePIN 网路协议和演算法的优化。我们期待著 AI 和 DePIN 带来更高效、更公平、更可信的数位世界。




