GPT-5.4養龍蝦太貴?OpenAI自己出手砍到了一折

avatar
36氪
03-19

最近OpenClaw可以說是火遍了大江南北。各大廠商都說自己的模型如何支持小龍蝦,唯獨沒人推薦ChatGPT。

事實上OpenAI才收購了OpenClaw。

原因就一個“貴”。

讓AI幫你完成一個稍微複雜的任務,比如自動化處理一批客戶郵件,背後可能要調用模型幾十上百次:理解意圖、檢索信息、生成草稿、校對潤色、逐封發送……如果每一步都調用滿血版GPT-5.4,一輪操作下來,飼料費(token)比蝦本身還貴。

特別是隨著OpenClaw這類agent框架的爆發,AI的工作模式已經發生了根本性轉變:從前我們向AI提問,它盯著問題想很久,然後吐出一長串文字;現在AI面對一個複雜任務,要將其拆解成微小步驟分步推進。每一步都調用旗艦大模型,不僅延遲讓人崩潰,成本也會高到離譜。

在這種背景下,OpenAI正式發佈GPT-5.4 mini與nano兩款小型模型,並宣稱其為公司“迄今最強大的小型模型”。

麻雀雖小五臟俱全,不要小瞧這兩個小玩意,不僅GPT-5.4核心的優勢和能力它們繼承了下來,同時還更快、更省資源,並且適合於大批量、高頻率的AI任務調用。

OpenAI貌似是覺得mini還不夠小,所以做出了更輕量的nano。

nano是GPT-5.4最輕量、最快速的版本,專為對速度和成本要求極高的任務而設計。

事實就是,用單一模型處理所有事務性價比太低,經常陷入高射炮打蚊子的境況,不如調整成大模型決定任務方向,小模型進行大規模快速執行的方案。

OpenAI自家的Codex就是這麼幹的。

一個主模型負責理解任務意圖、拆解步驟,然後調度mini/nano級別的子agent去執行具體的代碼修改、測試運行、結果校驗,每個子任務只消耗極低的成本。

大模型就像坐鎮中軍、運籌帷幄的主帥,只抓頂層戰略、調度全局資源。小模型則是無數支精銳輕騎,身形輕便、行動迅捷、批量奔赴前線,專一完成細分任務。

OpenAI為什麼這麼做

mini和nano在價格上確實“mini”以及“nano”。要理解OpenAI為什麼押注輕量化,先看看這兩款模型到底便宜到什麼程度。

mini和nano均支持 400k tokens 的上下文窗口。在輸入價格上,GPT-5.4旗艦版是2.5 美元/百萬token,mini版是0.75美元/百萬 token,nano版更是誇張,僅0.2美元/百萬token,輸入成本僅為旗艦模型GPT-5.4的8%。

而輸出價格上,GPT-5.4是15美元/百萬 token,mini版約為它的1/3(4.5 美元),nano版約為它的1/12(1.25 美元)。

換句話說,OpenAI用戶們的賬單直接砍到了零頭。

價格只是表象,真正驅動OpenAI做這件事的,是整個行業的使用趨勢已經發生了根本性轉向。

輕量化小模型主要有調用成本低、響應快這兩大特徵,不少證據表明小模型已經成為當前AI落地最具性價比、最具增長潛力的選擇。

在OpenRouter本月度最受歡迎LLM排行榜前十中,輕量化模型佔到了6個席位,它們參數量普遍集中在數十億至數百億級別,和Claude Opus這類動輒數千億甚至萬億參數的通用旗艦大模型形成鮮明的差異。

榜單Top 2席位被輕量化小模型包攬,第1名MiniMax M2.5以8.29T tokens的調用量斷層領跑全榜,月度漲幅高達 476%;第2名Google Gemini 3 Flash Preview,調用量也達到4.24T tokens,遠超多數通用旗艦大模型。

Hugging Face Hub的模型下載量統計同樣印證了這一趨勢:92.48%的下載量來自少於10億參數的模型,86.33% 為5億以下,69.83% 為2億以下。

大模型也進入了薄利多銷的時代。

1B+參數量的模型,即便包含多款輿論熱度極高的開源大模型,整體下載佔比僅為7.52%,不足輕量化模型的十分之一,這說明大模型的高關注度,似乎並未轉化為真實的落地與採用。

從OpenAI自身的商業賬本來看,做小模型更是一道必答題。

今年2月底,OpenAI宣佈ChatGPT全球每週活躍用戶已突破9億,付費用戶約5000 萬,付費轉化率僅約5%左右,絕大多數用戶仍停留在免費版本。這也成為其未來商業化最核心的增長空間。

絕大多數的C端付費用戶,核心使用場景是日常對話、文案潤色、信息檢索、輕量代碼編寫等高頻輕量需求。

這類場景完全不需要GPT-5.4這類旗艦大模型的極限複雜推理能力,百億級以內的輕量化小模型足以覆蓋大部分需求,同時又能提供毫秒級響應、無排隊等待的使用體驗,完美匹配絕大多數用戶的核心訴求。

說了這麼多“為什麼”,接下來看看這兩款模型到底交出了怎樣的答卷——畢竟,飼料便宜了,蝦的個頭要是也縮水了,那就不叫降本增效,叫偷工減料。

mini、nano能力幾何

mini和nano的優勢就只是小和便宜嗎?

No No No

根據OpenAI官網的一系列跑分測試,可以說它們能力表現也很突出。

在業內公認最權威的AI程序員測試SWE-bench Pro 中,GPT-5.4 mini的準確率達到了54.4%,表現極具殺傷力,逼近滿血版GPT-5.4的57.7%。

GPT-5.4 nano的準確率為52.4%,再考慮到它極低的成本,非常適合作為快速迭代的代碼審查和輔助子agent。

以下兩張圖表看得更直觀,橫軸分別代表模型的響應時長和所用成本,縱軸均表示模型在任務中的準確率。

GPT-5.4雖然準確率穩居第一,但是在橫軸上卻延伸了太遠,也就是不僅思考久,燒的錢還多。而nano和mini的折線則整體居於座標圖左側,標誌了它們極高的性價比。

它們只是犧牲了一點點終極的邏輯上限,就換來了極快的響應速度和極低的成本。

對此,不少網友戲稱:小龍蝦的飼料費終於被打下來了。

的確,mini和nano未來可能會成為養蝦的主流API選擇。

在OSWorld-Verified(真實電腦環境操作測試)中,GPT-5.4 mini達到了72.1%的準確率,幾乎追平了滿血旗艦版的75%。

這項測試主要是讓AI像人一樣,通過看顯示器、動鼠標、敲鍵盤來使用一臺真的電腦,包括使用Chrome、Office、VS Code等軟件。

這才是OpenClaw等agent玩家最看重的指標。

過去讓AI操控電腦,AI經常會瞎點或者反應遲鈍。mini版本的這個高分意味著,它識別按鈕、滑塊、輸入框的精度極高,在一些自動化任務上可以更加得心應手。

然而,也不是所有場景都適合用小模型。

nano模型在OSWorld-Verified上的得分僅為39.0%,甚至低於上一代GPT-5 mini的42.0%。

這意味著在需要精細操控電腦界面的複雜任務上,nano還力有不逮。

同樣,對於需要深度推理、長鏈條邏輯的高難度任務,旗艦版GPT-5.4仍然不可替代。

小模型的價值不在於取代大模型,而在於和大模型搭配使用——把對的模型放在對的位置,才是子agent架構真正的精髓。

這也恰恰是nano和mini發佈的深層意義,它們不是來搶旗艦版飯碗的,而是來幫旗艦版分擔那些“高射炮打蚊子”的活兒。

當大模型不再需要親自處理每一個瑣碎步驟,整個系統的效率和成本結構都會發生質變。

OpenAI想打的不是一場簡單的價格戰,OpenAI內心OS是這樣的:“我可以每個token少賺你點錢,但是我要讓你多用我的小模型,把總收入抬上去。”

典型的薄利多銷。

過去“便宜”是國產模型的護城河,可是這道護城河正在被填平。對普通開發者和企業用戶而言,AI可能很快就會變成各行各業用得起、跑得快的新基礎設施。

小龍蝦的飼料費打下來了,養蝦的門檻也在悄悄降低。接下來的問題是:誰能養出最肥的蝦?

本文來自微信公眾號“字母AI”,作者:劉奕君,36氪經授權發佈。

相关赛道:
來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論