AI 的下一場地震:為什麼真正的危險不是 SaaS 殺手,而是算力革命?

Chainfeeds 導讀:

這場革命,可能讓 AI 的賣鏟人精心舉辦的這場盛大派對,比所有人想象的都更早結束。

文章來源:

https://www.techflowpost.com/zh-CN/article/30329

文章作者:

Bing Ventures


觀點:

Bing Ventures:這場革命並非單一事件,而是由兩條看似獨立的技術路線交織而成。第一條路,是算法的瘦身革命。過去我們默認,一個超級大模型要變得更聰明,就必須調動全部參數全力運轉,燒掉越來越多的算力。但 DeepSeek 用 MoE(混合專家模型)架構打破了這個共識。你可以把 MoE 想象成一家擁有數百位專家的公司,每次解決問題時,只請最相關的兩三個人開會,而不是讓所有人一起頭腦風暴。模型整體規模仍然龐大,但每次推理只激活極小一部分參數,從而大幅降低算力消耗。DeepSeek-V2 名義上擁有 2360 億參數,但每次實際計算僅調用約 210 億,不到總量的 9%,而性能卻能與需要滿負載運轉的 GPT-4 相媲美。這意味著 AI 能力與算力消耗第一次出現了系統性脫鉤。過去「更強 = 更多 GPU」的鐵律被徹底打破,算法層面的進化,正在直接削弱英偉達 GPU 的剛需屬性。第二條路,是硬件的「換道」革命。AI 的工作分為訓練與推理兩個階段,訓練強調大規模並行計算,GPU 具備天然優勢;而推理強調響應速度與能效比,GPU 卻存在結構性瓶頸。其核心問題在於,GPU 的高帶寬內存(HBM)是外掛式設計,數據來回搬運存在物理延遲,就像廚師每做一道菜都要跑去隔壁房間拿食材,再快也無法做到即時響應。Cerebras、Groq 等新興公司選擇徹底重構芯片架構,把高速 SRAM 內存直接焊接在芯片內部,實現近乎零延遲的數據訪問,專為推理場景而生。市場已經開始用真金白銀投票:OpenAI 一邊抱怨 GPU 推理成本高、效率低,一邊與 Cerebras 簽下百億美元級別的長期算力合約;英偉達也迅速出手,斥資約 200 億美元收購 Groq,試圖補上推理賽道的短板。這意味著,AI 計算的重心,正從通用 GPU 走向專用推理芯片。當算法瘦身與硬件換道這兩條路線交匯,結果只有一個:成本雪崩。瘦身後的 MoE 模型體積大幅縮小,可以整體裝入推理芯片的片上內存;專用芯片又消除了外部內存瓶頸,使推理速度獲得數量級提升。最終,訓練成本因稀疏計算下降約 90%,推理成本再下降一個數量級,綜合下來,構建和運行世界級 AI 的總成本,可能僅為傳統 GPU 方案的 10%–15%。這不是漸進式改良,而是範式轉移。英偉達數萬億美元市值建立在 AI 必須依賴 GPU 這一單一敘事之上,而當訓練需求被算法壓縮、推理市場被專用芯片分流,其壟斷根基便開始鬆動。未來最大的黑天鵝,或許不是某個 AI 應用爆火,而是一篇不起眼的 MoE 新論文,或一份推理芯片市佔率報告,悄然宣告算力戰爭進入新階段。當賣鏟人的鏟子不再唯一,屬於他的黃金時代,也可能隨之走向終章。

內容來源

https://chainfeeds.substack.com

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論