一项曾经局限于加密货币领域的去中心化人工智能实验,近日获得了英伟达首席执行官黄仁勋的公开认可,这表明分布式模型训练可能正在逐渐走向主流。
英伟达CEO力挺开源人工智能,推动其发展势头强劲
在 All-In Podcast 的一期节目中,Chamath Palihapitiya 重点介绍了 Bittensor 的 Covenant-72B 项目,并将其视为去中心化人工智能 (AI) 超越理论的切实例证。Bittensor是一个去中心化的区块链驱动网络,它建立了一个点对点市场,用于交换和激励机器学习模型和 AI 计算资源。
帕利哈皮蒂亚用通俗易懂的方式描述了这项工作:一个大规模语言模型(LLM)的训练没有采用集中式基础设施,而是由独立贡献者网络提供支持。“他们成功地训练了一个拥有40亿参数的LLaMA模型,完全分布式,由许多人贡献了额外的计算资源,”他说道,并称之为“一项相当疯狂的技术成就”。
这个比喻很贴切。“就像随机抽取的人群,每个人都分到一小部分资源,”帕利哈皮蒂亚补充道,他指的是早期利用全球闲置硬件的分布式计算项目。
黄并没有否定这种观点。相反,他倾向于从更广阔的视角来看待人工智能市场,认为去中心化和专有模式并非互斥。“这两者不是A或B,而是A和B,”黄说,“这一点毋庸置疑。”
这种双轨视角反映了人工智能领域日益加剧的分化——以及重叠。一方面是像 ChatGPT、Claude 和Gemini这样封闭且高度完善的系统;另一方面是开放且去中心化的模型,允许开发者和组织根据特定需求定制系统。
黄明确表示,他认为这两条路径都至关重要。“模型是一种技术,而非产品,”他说道,并指出大多数用户仍会依赖成熟的通用系统,而不是从零开始构建自己的系统。
与此同时,他也指出,在某些行业,定制化是必不可少的。“在这些行业中,他们的专业知识……必须以一种他们能够掌控的方式来获取,”黄解释说,“而这只能通过开放模式来实现。”
这一说法完全符合 Bittensor 的专长。Covenant-72B 是通过其子网 3(Templar)开发的,是迄今为止规模最大的去中心化训练运行之一,它协调了 70 多位贡献者通过标准互联网连接进行操作,而无需中央机构。
从技术角度来看,该模型突破了界限。它由 720 亿个参数构建而成,并使用约 1.1 万亿个令牌进行训练,利用压缩通信协议和分布式数据并行等创新技术,使得在传统数据中心之外进行训练成为可能。
性能指标表明它并非仅仅是实验性的。基准测试结果显示它足以与成熟的中心化模型相媲美,这一细节有助于解释为什么该项目吸引了加密货币原生用户以外的关注。
市场也注意到了这一点。消息公布后,该项目的代币TAO价格上涨了24%,这得益于帕里哈皮蒂亚和黄的视频在社交媒体上的广泛传播。
不过,黄仁勋的评论表明,真正的问题不在于颠覆,而在于二者的共存。专有人工智能系统可能仍将主导普通用户市场,而开放和去中心化的模型则会在专业化、成本敏感型或主权驱动型应用领域占据一席之地。
英伟达首席执行官为初创公司概述了一套务实的策略:先开源,再逐步融入专有技术优势。“我们现在投资的每一家初创公司都是先开源,然后再转向专有技术模式,”他说道。
换句话说,人工智能的未来或许不属于单一的架构或理念,而可能属于那些能够驾驭两者,并懂得何时运用哪一种的人。
常见问题解答🔎
- Bittensor 的 Covenant-72B 是什么?
一个拥有 720 亿个参数的语言模型,通过去中心化的贡献者网络进行训练,无需集中式基础设施。 - 黄仁勋对去中心化人工智能说了些什么?
他表示,开放和专有的人工智能模型将共存,并将这种关系描述为“A 和 B”,而不是二者之间的选择。 - 为什么这一进展如此重要?
这表明大规模人工智能模型可以在传统数据中心之外进行训练,挑战了关于基础设施需求的假设。 - 这将如何影响人工智能行业?
它支持一种混合的未来模式,在这种模式下,集中式平台和去中心化模式在各个行业中扮演不同的角色。





