GPT-5核心推手閃電跳槽,Anthropic CEO高調炫耀員工留存碾壓OpenAI,“AI第一公司”光環崩塌?

在國內科技圈被阿里 Qwen 技術負責人林俊暘離職的消息刷屏時,硅谷的一則人事變動卻顯得異常安靜。

OpenAI 後訓練負責人、GPT-5 系列的核心推手 Max Schwarzer 宣佈離職,轉身加入 Anthropic,迴歸一線研究員身份。

這一離職時間點尤為微妙。此前 Open AI 與 Anthropic 兩家公司正處在對壘態勢中,OpenAI 接下了 Anthropic 曾明確迴避的五角大樓訂單。此消息一出,引起民眾強烈反彈,ChatGPT 短期卸載量隨之激增 295%。

在商業版圖擴張與倫理爭議並存的十字路口,作為掌控模型效果的關鍵人物,Max Schwarzer 在升任研究副總裁僅 7 個月後便選擇離開。這本身就是一個強烈的信號:OpenAI 正在全速駛向商業化的未來,或許已不再是純粹研究者心中的理想之地。

Max Schwarzer 的離開並非孤例。她在離職聲明中坦言,許多她欣賞的同僚已身在 Anthropic。

比如 OpenAI 聯合創始人、後訓練負責人、ChatGPT “對話能力”的締造者 John Schulman,超級對齊團隊負責人、曾試圖為超越人類的 AI 建立安全圍欄的 Jan Leike,OpenAI 聯合創始人、極客型算法科學家 Durk Kingma......

這揭示了一條正在成形的“人才遷徙線”,這些技術領袖正陸續從 OpenAI 位於舊金山 Mission 區的總部撤離,向著更強調“憲法級 AI”與安全研究的 Anthropic 匯聚。

而 Max Schwarzer 在 Anthropic 的新方向是強化學習(RL),這正是她曾主導 GPT-o1 時的核心領域,重在邏輯推理,旨在突破模型的思考上限。這種對“能力邊界”的執著,與 OpenAI 當下的產品策略形成了鮮明反差。

回顧近期 GPT-5 系列的迭代路徑,一個明顯的變化是,OpenAI 的研發重心正在從單純拓展模型的參數邊界轉向解決商業落地的“最後一公里”問題。

無論是推理優化、幻覺降低,還是嵌入 Agent 能力與企業級部署,GPT-5 系列的目標都指向了“可控、可靠、可規模化”。這一趨勢在最新推出的模型 GPT-5.3 Instant 上尤為明顯,該模型致力於體驗的優化與情商的提升。顯然,一場關乎“用戶體驗”新一輪競賽已經悄然打響。

如果將視野拉大,看 OpenAI 近期的一系列動作,從簽下五角大樓的政府訂單,到將推出取代 GitHub 的代碼託管平臺,從模型提供商向開發者工具生態擴張,這其實都在講述同一個故事:

OpenAI 正處於戰略轉型的關鍵時期,它要變成一個具有全球影響力、深度嵌入商業與政府體系的 AI 平臺型巨頭。

產品戰略的轉向:從“參數軍備賽”到“體驗護城河” 

從 GPT-4 系列到 GPT-5 系列的迭代,可以清晰看到,Open AI 正在從“讓 AI 更聰明”,轉向 “讓 AI 更值得信任”。

這種轉變並非偶然,而是在經歷了長達兩年的“參數軍備競賽”後,OpenAI 意識到,單純的模型規模增長正面臨邊際效應遞減的困境。

正如 OpenAI 前首席科學家 Ilya Sutskever 所言:“只靠 Scaling Law 的時代已經結束,我們重新回到了探索與發現的階段。”

過去模型大一倍,能力上一個臺階;如今模型大十倍,效果提升可能不足 10%。盲目擴參性價比變得極低,而在後訓練與推理環節做優化,反而能帶來極高的投入回報。

然而,這裡存在一個巨大的悖論,既然“後訓練”已成為 OpenAI 的新戰略高地,為何 Max Schwarzer 等後訓練領域的頂級掌舵人,卻紛紛選擇出走?

這恰恰揭示了 OpenAI 內部對於“後訓練”定義的根本性分歧,是“為了真理”,還是“為了產品”。在科學家眼中,後訓練本應是通往 AGI 的最後一道安全閘。但在商業化加速的 OpenAI 管理層看來,後訓練正在被重新定義為一種“高級客服培訓”。

此前,GPT-5.2 版本那種“爹味十足”的說教語氣或過度易被觸發的安全防禦,已經激怒了大量用戶,在社交媒體上掀起實質性退訂潮。這讓 OpenAI 痛切地意識到,糟糕的交互體驗正在抵消模型智力的優勢。

於是,在最新推出的 GPT-5.3 Instant 中,巨大的算力資源被從“邏輯推理”傾斜到了更務實的“工程修補”上:如何讓語氣更圓滑?情商更高?對話更流暢?它不再試圖成為一個“全知全能的神”,而是努力成為一個“甚至懂你潛臺詞的人”。

至此,Open AI 後訓練的目標,從“防止 AI 毀滅世界”,降維成了“防止 AI 惹上官司”。

OpenAI 的這種商業化轉向,也正對應著整個行業評價尺度的重寫。

年初,吳恩達提出的“圖靈 -AGI 測試”不再關心 AI “會不會解題”,而是看它能否在路徑不可控的條件下把一件事真正做完;斯坦福大學的《2026 AI 預測報告》與谷歌雲的 ROI 報告,也都直指同一個風向標:別談模型智力上限,談企業中的落地效益。

對於企業客戶而言,賬算得很清楚:一個能考滿分但偶爾胡言亂語的天才,遠不如一個考 90 分但情緒穩定、邏輯自洽的助手有價值。降低企業的合規風險,這才是企業級落地的關鍵門檻。

正如蘋果從不堆砌硬件參數卻能贏得用戶一樣,OpenAI 也試圖通過極致的工程化打磨證明,在商業世界裡,“體驗決勝”遠比“參數堆疊”更能留住客戶,這也是其商業化轉向的核心邏輯。

商業與政治佈局加速:從科研機構向“基礎設施級平臺”演化

OpenAI 的技術轉向只是冰山一角,其水面之下潛藏的,是 Sam Altman 在政治與商業的雙重佈局。

這家誕生於“開源、公益、推動 AGI 造福人類”理想的公司,正在瘋狂吞噬算力、數據與資本,其所有動作的核心,都圍繞一個關鍵詞“控制權”。

據 The Information 爆料,OpenAI 正秘密研發一款代碼託管平臺,意圖直接取代微軟旗下的 GitHub,成為全球新一代代碼託管與生成中心。

儘管 OpenAI 的工程師對外宣稱,是對 GitHub 近期頻繁宕機的不滿。但從結果來看,此舉更像是爭奪軟件工業的“底層定義權”。

目前,OpenAI 的 Copilot 不過是掛在 IDE 上的“外掛”,始終依附於微軟的開發者生態。而它真正想要的,是讓 AI 成為編程的“原生環境”。

開發者在其平臺上完成代碼託管、生成、調試、部署的全流程,OpenAI 則通過掌控這一閉環,收割最鮮活、最核心的工程數據,構建“數據 - 模型 - 應用”的自循環體系。

Open AI 也完成從 AI 模型提供者向開發者工具生態的擴張。

而更具爭議的一步,則是 OpenAI 擁抱五角大樓的政治“投名狀”。

2024 年初,OpenAI 更新了其使用政策,刪除了此前明確禁止“軍事和戰爭用途”的條款。這一調整並未高調宣佈,但被多家媒體注意到。

隨後,OpenAI 任命前美國國家安全局(NSA)局長 Paul Nakasone 進入董事會,併成立“安全與保障委員會”。

這些動作被普遍解讀為 OpenAI 加深與美國國家安全體系合作的信號。

而在最新“五角大樓訂單”事件中,Anthropic 選擇堅守“憲法級 AI”的邊界,拒絕讓其 AI 模型用於大模型國內監控或全自動武器,最終被列為“國家安全供應鏈風險。而 OpenAI 卻很快便與五角大樓達成協議,接受了五角大樓“符合適用法律即可使用”的核心框架。雖然增設三條安全紅線,並爭取到“雲端部署、自主掌控安全棧”的技術防護權,但協議措辭仍為潛在監控留下解釋空間。

OpenAI 的接手,不僅是一次商業截胡,更是一次政治站位。這表明 OpenAI 已準備好承擔作為“國家級 AI 基礎設施”的複雜性。

畢竟,在 2 億美元的國防預算面前,企業級 SaaS 的收入顯得微不足道。能成為美軍的供應商,則獲得了“大而不能倒”的政治豁免權。

而在最新一輪融資中,OpenAI 融資規模高達 1100 億美元,堪稱 AI 史上最大的一筆融資,OpenAI 投後估值直逼 8400 億美元,直逼萬億俱樂部。

Open AI 計劃拿這筆錢擴大人工智能基礎設施建設,堆出一道競爭對手無法翻越的算力高牆。這正是平臺經濟“網絡效應”的極致運用:通過壟斷算力、數據等核心資源,形成“用戶聚集—資源強化—更多用戶湧入”的自我強化循環,最終實現市場壟斷,這也是 OpenAI 追求“控制權”的核心邏輯之一。

但在這場看似風光的狂奔背後,懸著一把致命的達摩克利斯之劍,極度瘋狂的燒錢速度,與尚未閉環的商業模式,構成了 OpenAI 最大的隱患,

如今的 OpenAI 正深陷政府安全需求、倫理風險、商業利益三方博弈之中。它正在進行一場人類商業史上前所未有的豪賭,在資金鍊斷裂之前,強行跑通商業閉環。

人才流動與文化摩擦:戰略重心轉變下的必然分化

當企業的基因突變,必然引發細胞的代謝。Open AI 的高層震盪,是戰略重心轉移後的必然分化

隨著 ChatGPT 成為擁有數億用戶的超級應用,OpenAI 內部的引力場發生了根本性反轉:工程化與產品化開始主導決策,純粹的研究探索被迫後退。

多位 OpenAI 高管和研究負責人在近幾年離職,包括 CTO、後訓練負責人、研究負責人。對於像 John Schulman 或 Max Schwarzer 這樣的技術原教旨主義者來說,當算力資源開始優先向產品部署而非前沿探索傾斜,當安全團隊的權限被商業交付節點擠壓,離開便成了唯一選擇。

Anthropic 成為了這些“流亡者”的庇護所。那裡更像 2019 年之前的 OpenAI:更慢的發佈節奏、更嚴苛的安全審查、對 Scaling Laws 理論更為痴迷。

在風險投資公司 SignalFire 最新發布的 2025 人才趨勢報告中,Anthropic 頂尖 AI 人才的留存率達到 80%,而且工程師從 OpenAI 跳槽到 Anthropic 的可能性是從 Anthropic 轉投 OpenAI 的 8 倍。

而 Anthropic 的首席執行官 Dario Amodei 更是誇耀,自家公司有能力抵禦競爭對手“挖牆腳”,他們不會理會競爭對手,如 Meta 花十倍薪水挖角的伎倆,因為大部分員工都會因為“使命”自願留下。據相關人士透露,在此誘惑下,只有兩名員工辭職去了 Meta,其留存率遠高於 Open AI。

這種人才遷徙也表明了 OpenAI 正在篩選掉“純粹研究者”,留下“產品經理”和“工程師”。 它聚集了最優秀的產品化人才,他們擅長將技術變現,打造像 ChatGPT 這樣改變世界、體驗極致的產品。OpenAI 正在變成 AI 時代的微軟。

而 Anthropic 正在吸納最純粹的“科學家”和“安全專家”。 它聚集了致力於探索 AGI 理論邊界和安全底座的頭腦,似乎成為 AI 時代的貝爾實驗室。

這不僅僅是兩家公司的競爭,更是兩條技術路線的賭局。OpenAI 選擇了“廣度與滲透”,先成為不可或缺的基礎設施,贏下市場份額。Anthropic 選擇了“深度與邊界,賭在未來,賭在安全底座。

OpenAI 近期的“小動作”不斷,一邊用更少幻覺、更少拒答、更不冒犯的交互把 ChatGPT 打磨成可規模化的“企業級默認入口”,一邊又把觸角伸向代碼託管、政府合同與安全治理,把自己嵌入更硬的生產體系與國家機器。這正在從“模型公司”跨進“基礎設施公司”的轉變。

而這條路的代價,是信任與文化的再分配:研究者會用腳投票,用戶會用卸載表達態度,競爭者會用“更道德”的敘事搶奪心智。

參考鏈接:

https://x.com/max_a_schwarzer

https://www.theinformation.com/articles/openai-developing-alternative-microsofts-github

https://www.reuters.com/business/openai-is-developing-alternative-microsofts-github-information-reports-2026-03-03/

https://openai.com/zh-Hant/index/gpt-5-3-instant/

本文來自微信公眾號 “AI前線”(ID:ai-front),作者:允毅,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論