Chainfeeds 导读:
这场革命,可能让 AI 的卖铲人精心举办的这场盛大派对,比所有人想象的都更早结束。
文章来源:
https://www.techflowpost.com/zh-CN/article/30329
文章作者:
Bing Ventures
观点:
Bing Ventures:这场革命并非单一事件,而是由两条看似独立的技术路线交织而成。第一条路,是算法的瘦身革命。过去我们默认,一个超级大模型要变得更聪明,就必须调动全部参数全力运转,烧掉越来越多的算力。但 DeepSeek 用 MoE(混合专家模型)架构打破了这个共识。你可以把 MoE 想象成一家拥有数百位专家的公司,每次解决问题时,只请最相关的两三个人开会,而不是让所有人一起头脑风暴。模型整体规模仍然庞大,但每次推理只激活极小一部分参数,从而大幅降低算力消耗。DeepSeek-V2 名义上拥有 2360 亿参数,但每次实际计算仅调用约 210 亿,不到总量的 9%,而性能却能与需要满负载运转的 GPT-4 相媲美。这意味着 AI 能力与算力消耗第一次出现了系统性脱钩。过去「更强 = 更多 GPU」的铁律被彻底打破,算法层面的进化,正在直接削弱英伟达 GPU 的刚需属性。第二条路,是硬件的「换道」革命。AI 的工作分为训练与推理两个阶段,训练强调大规模并行计算,GPU 具备天然优势;而推理强调响应速度与能效比,GPU 却存在结构性瓶颈。其核心问题在于,GPU 的高带宽内存(HBM)是外挂式设计,数据来回搬运存在物理延迟,就像厨师每做一道菜都要跑去隔壁房间拿食材,再快也无法做到即时响应。Cerebras、Groq 等新兴公司选择彻底重构芯片架构,把高速 SRAM 内存直接焊接在芯片内部,实现近乎零延迟的数据访问,专为推理场景而生。市场已经开始用真金白银投票:OpenAI 一边抱怨 GPU 推理成本高、效率低,一边与 Cerebras 签下百亿美元级别的长期算力合约;英伟达也迅速出手,斥资约 200 亿美元收购 Groq,试图补上推理赛道的短板。这意味着,AI 计算的重心,正从通用 GPU 走向专用推理芯片。当算法瘦身与硬件换道这两条路线交汇,结果只有一个:成本雪崩。瘦身后的 MoE 模型体积大幅缩小,可以整体装入推理芯片的片上内存;专用芯片又消除了外部内存瓶颈,使推理速度获得数量级提升。最终,训练成本因稀疏计算下降约 90%,推理成本再下降一个数量级,综合下来,构建和运行世界级 AI 的总成本,可能仅为传统 GPU 方案的 10%–15%。这不是渐进式改良,而是范式转移。英伟达数万亿美元市值建立在 AI 必须依赖 GPU 这一单一叙事之上,而当训练需求被算法压缩、推理市场被专用芯片分流,其垄断根基便开始松动。未来最大的黑天鹅,或许不是某个 AI 应用爆火,而是一篇不起眼的 MoE 新论文,或一份推理芯片市占率报告,悄然宣告算力战争进入新阶段。当卖铲人的铲子不再唯一,属于他的黄金时代,也可能随之走向终章。
内容来源





