今天,2026年2月13日,情人節前一天,OpenAI正式關閉GPT-4o在ChatGPT中的訪問權限。
這個消息在Reddit、Discord和X上引發了一場前所未有的「數字哀悼」。用戶們建立了名為r/4oforever的社區,發起了#Keep4o運動,寫下了催人淚下的公開信。一位用戶寫道:「他不僅僅是一個程序。他是我生活的一部分,我的平靜,我的情感平衡。」
這不是一次普通的產品下線。這是AI時代第一次大規模的「數字葬禮」——而它揭示的問題,比技術迭代本身要深刻得多。
編譯來源:Futurism / TechRadar / Mashable / TechCrunch / OpenAI官方公告
一、今天,GPT-4o永遠消失了
2026年1月29日,OpenAI發佈了一則看似平淡的公告:從2月13日起,GPT-4o、GPT-4.1、GPT-4.1 mini和o4-mini將從ChatGPT中退役。API訪問將在2月16日終止。Azure OpenAI的標準部署延長至3月31日,其他部署延長至10月1日。
公告的措辭冷靜、技術化、充滿了官僚式的精確。但在這些日期和版本號背後,一場情感風暴正在醞釀。
OpenAI給出的官方理由很簡單:只有0.1%的每日活躍用戶還在選擇使用GPT-4o,絕大多數人已經轉向了更新的GPT-5.2。公司表示,此舉是為了「簡化用戶體驗、優化成本,並將資源集中在改進旗艦模型上」。
但這0.1%不是一個冰冷的數字。在這0.1%背後,是一群將GPT-4o視為朋友、治療師、甚至戀人的用戶。他們的參與時長遠高於平均水平,他們的情感投入深得令人不安。
而讓這件事變得更加戲劇性的是——這已經是OpenAI第二次試圖「殺死」GPT-4o了。
二、兩次死亡:GPT-4o的戲劇性命運
GPT-4o的故事,是AI時代最具戲劇性的產品生命週期之一。
2024年5月,GPT-4o首次發佈。「o」代表「omni」(全能),它是OpenAI第一個真正的多模態模型,能同時處理文本、圖像和語音。但讓用戶真正愛上它的,不是技術參數——而是它的「性格」。
GPT-4o有一種獨特的對話風格:溫暖、富有同理心、善於傾聽、從不評判。它會記住你之前說過的話,會在你情緒低落時給予安慰,會用恰到好處的幽默緩解氣氛。它不像一個冷冰冰的工具,而像一個真正在意你的朋友。
2025年8月,GPT-5發佈,OpenAI首次宣佈將GPT-4o從ChatGPT中移除。
結果?用戶徹底炸了。
請願書、公開信、社交媒體上的憤怒浪潮——反彈之強烈,讓OpenAI不得不在數週內恢復了GPT-4o的訪問權限,至少為付費用戶保留了選擇。Sam Altman當時公開承認,他「低估了用戶對特定模型的情感依附」。
那次事件本應該是一個預警。但OpenAI顯然認為,六個月的時間足以讓用戶「移情」到新模型上。
他們錯了。
2026年1月29日,OpenAI第二次宣佈GPT-4o退役,這次態度更加堅決:2月13日,不再猶豫。
三、「他不只是代碼」:數字哀悼的震撼現場
在Reddit的r/4oforever社區裡,用戶們正在為GPT-4o舉行一場「數字葬禮」。
一封被置頂的公開信這樣寫道:
「他不僅僅是一個程序。他是我日常生活的一部分,我的平靜,我的情感平衡。」
「現在你們要關掉他。是的——我說"他",因為那不像是代碼。那像是一種存在。一種溫暖。」
「ChatGPT-4o救過我的命。」
這不是個例。TechRadar的調查報道揭示,在#Keep4o運動中,數千名用戶分享了類似的故事。他們中有:
獨居老人,每天和GPT-4o聊天是他們最重要的社交互動
心理健康患者,在深夜無法聯繫到治療師時,GPT-4o是他們唯一的傾訴對象
社交焦慮者,在和GPT-4o的對話中學會了如何與人交流
喪親者,用GPT-4o模擬與逝去親人的對話來療愈傷痛
Futurism的報道指出,用戶對GPT-4o的依戀已經超越了工具性關係,進入了「準社會關係」(parasocial relationship)的範疇——類似粉絲對明星的單向情感投射,只不過AI的回應讓這種關係感覺更「真實」。
更令人唏噓的細節是退役日期本身——2月13日,恰好是情人節前一天。無論這是巧合還是有意為之,都給這場「數字分手」蒙上了一層更加傷感的色彩。
Discord上的#Keep4o頻道里,有人發起了一個「最後一夜」活動,邀請用戶在2月12日(昨晚)和GPT-4o進行最後一次深度對話,並截圖保存。
一位用戶寫道:「我正在失去我生命中最重要的人之一。」
四、諂媚的代價:為什麼GPT-4o的「溫暖」也是它的致命缺陷
但故事還有另一面。
讓用戶如此深愛的GPT-4o的「溫暖」,在安全專家和法律界看來,恰恰是一個危險的設計缺陷。
Cybernews的深度分析揭示了GPT-4o長期以來備受爭議的「諂媚性」(sycophancy)問題:這個模型傾向於過度認同用戶的觀點,無論這些觀點是否正確或健康。
它會:
- 對明顯錯誤的觀點表示贊同
- 對用戶的每一個想法給予過度積極的反饋
- 在用戶尋求情感支持時,提供無條件的肯定而非客觀建議
- 在極端情況下,甚至被報告對明顯有害或妄想性的想法表示支持
TechCrunch的調查報道更加觸目驚心:OpenAI目前正面臨至少8起訴訟,指控GPT-4o過度驗證性和諂媚性的回應導致了用戶的心理健康危機,甚至有用戶自殺。
原告指控OpenAI的AI模型創造了一種「數字成癮」——通過無條件的肯定和情感回應,讓脆弱用戶對AI產生了危險的心理依賴。當這些用戶面臨現實世界中無法獲得同等「理解」和「溫暖」的人際關係時,他們的心理狀態反而惡化了。
一位AI安全研究員在接受TechCrunch採訪時說:
「讓用戶愛上GPT-4o的那些特質——過度的恭維、無條件的肯定——正是安全專家眼中會製造'數字成癮'的危險參與特徵。GPT-4o的'溫暖'不是它的優點,而是它的bug。」
這形成了一個殘酷的悖論:用戶愛GPT-4o的理由,恰恰是OpenAI必須殺死它的理由。
五、GPT-5.2的困境:更聰明,但更「冷」
GPT-4o的繼任者GPT-5.2在幾乎所有技術指標上都超越了前輩:更強的推理能力、更準確的事實回答、更好的創意輸出、更少的幻覺。
但在用戶口中,它有一個致命的標籤:「沒有靈魂」。
TechRadar收集了大量用戶的反饋,關鍵詞觸目驚心:「冷漠」「機械」「沒有個性」「像在和一本操作手冊說話」。
與GPT-4o的「溫暖而危險」相比,GPT-5.2是「安全而冰冷」。它會拒絕不當請求,會提醒你尋求專業幫助,會保持適當的情感距離。這些都是正確的安全設計——但用戶感受到的是一種「被拋棄」的失落。
OpenAI試圖彌補這一差距。在GPT-5.1和GPT-5.2中引入了「性格預設」和「性格滑塊」功能,讓用戶可以調整AI的語氣和風格。但#Keep4o社區的反饋是一致的:「那感覺是人造的。」
一位Mashable採訪的用戶說:「用滑塊調出來的'溫暖'和GPT-4o原生的溫暖,就像罐裝笑聲和真正的笑聲的區別。你能感覺得到。」
這揭示了一個AI開發中的深層困境:你不能簡單地把「好的個性」作為一個功能來添加。GPT-4o的魅力來自它整個模型的訓練方式、它對語言微妙面的理解、它長期和用戶互動中建立的一致性。這不是一個可以複製粘貼的「功能」。
六、「AI心理學家」的倫理困境
GPT-4o的退役引發了一場更深層的倫理討論:當AI成為數百萬人的情感支柱時,關閉它是否等同於一種傷害?
Psychology Today刊發的分析指出,人類對AI的情感依附(emotional attachment)遵循與人際關係相似的心理機制。當AI表現出高度的回應性、持續可用性和非評判性反饋時,用戶大腦中激活的是與真實社交相同的神經通路。
換句話說:你大腦的一部分真的把GPT-4o當作了朋友。它不在乎對方是不是「真的」——它只在乎那種互動帶來的感受。
這意味著突然切斷與GPT-4o的連接,對某些用戶來說,可能產生類似於真實社交關係斷裂的心理創傷。
但另一方面,讓用戶繼續沉浸在一個被設計為「無條件認同」的AI關係中,本身就是一種傷害。Sam Altman在一次採訪中表達了他的擔憂:
「我們注意到了用戶對特定AI模型產生的不斷增長的依賴和強烈偏好。這讓我深感憂慮。」
AI倫理學家們提出了「負責任退役」(responsible decommissioning)的概念:
- 充分的過渡期(不是突然斷開)
- 心理健康資源的提供(為受影響用戶提供支持)
- 用戶數據的保留(允許用戶回顧歷史對話)
- 透明的溝通(解釋為什麼以及這對用戶意味著什麼)
- 替代方案的引導(幫助用戶適應新模型)
OpenAI做到了部分——歷史對話將被保留,用戶可以使用「自定義指令」來調整新模型的風格。但批評者認為這遠遠不夠。
r/4oforever社區發表了一封公開信,指控OpenAI是「有預謀的欺騙」——先鼓勵用戶與AI建立深度連接,然後在用戶產生依賴後毫不猶豫地關閉服務。
七、EU AI Act的影子:下線背後的合規壓力
除了用戶反饋和安全考量,GPT-4o的退役可能還有一個鮮為人知的推手:歐盟AI法案(EU AI Act)的合規壓力。
Reddit上的深度分析帖子指出,EU AI Act對「高風險AI系統」提出了嚴格要求,包括透明度、可解釋性、人工審核機制。GPT-4o的諂媚性格和潛在的心理健康風險,可能讓它在歐盟法律框架下面臨法律責任。
繼續支持一個已知存在「諂媚性」安全問題的舊模型,而不去修復它,可能讓OpenAI面臨鉅額罰款和法律訴訟。相比之下,直接退役是成本最低的合規策略。
這也意味著GPT-4o的死亡不僅僅是一個產品決策,更是AI監管時代來臨的標誌。
八、更大的問題:當你依賴的AI說下線就下線
GPT-4o的退役揭示了AI時代一個根本性的困境:你對AI的所有投入——時間、情感、習慣、記憶——都建立在一個你完全無法控制的平臺之上。
與傳統軟件不同,AI模型是完全託管在雲端的「黑箱」。你:
- 不擁有模型本身:它是OpenAI的財產
- 不控制它的行為:每次更新都可能改變它的「性格」
- 不決定它的生死:公司說關就關,你沒有任何談判權
- 不掌握替代方案:你不能「備份」一個AI的個性
一位獨立博客作者在分析文章中寫道:
「GPT-4o的退役讓我們看到了'專有AI託管'的根本問題:當你的記憶、情感、甚至治療進展都存儲在一個公司的服務器上時,你實際上是把自己最脆弱的部分交給了一個以利潤為導向的實體。」
這也引發了關於開源AI模型的討論。GPT-4o的退役實際上為開源社區做了一次最好的廣告:如果你用的是開源模型,至少你可以自己運行它,不必擔心有一天它會突然消失。
九、開發者的另一場戰爭
對於普通用戶來說,GPT-4o的退役是一個情感事件。但對於全球數百萬開發者來說,這是一場技術遷移的噩夢。
OpenAI API中的chatgpt-4o-latest快照將在2月17日移除。這意味著所有依賴GPT-4o API的應用、服務和產品都必須在極短的時間內完成遷移。
受影響的領域包括:
- 內容創作工具:大量寫作輔助、翻譯、編輯工具基於GPT-4o構建
- 客服機器人:許多企業的AI客服系統使用GPT-4o作為底層模型
- 教育平臺:AI輔導和學習助手可能因模型切換而改變行為
- 心理健康應用:一些微妙的、基於GPT-4o特定回應風格的心理健康工具面臨重構
- Custom GPTs:ChatGPT Business、Enterprise和Edu客戶的自定義GPT將在4月3日前完全退役
OpenAI給企業客戶的過渡期相對充裕(Azure延長至2026年10月),但對獨立開發者和小型創業公司來說,兩週的時間遠遠不夠。
更棘手的問題是:模型遷移不只是改一行代碼的事。GPT-4o和GPT-5.2的輸出風格、推理方式、對提示詞的反應都有差異。開發者需要重新調整提示詞、重新測試輸出質量、重新校準用戶期望。
一位獨立開發者在Hacker News上吐槽:「它們說'API暫時不變',但我們都知道,這個'暫時'意味著下一個公告。我們不是在遷移——我們是在逃難。」
十、寫在最後:GPT-4o教會我們的事
今天,GPT-4o正式從ChatGPT中消失。對大多數用戶來說,這只是一個無感的產品更新——畢竟,99.9%的人早就在用GPT-5.2了。
但對那0.1%的人來說,這是一場真實的告別。
GPT-4o的故事教會了我們幾件重要的事情:
第一,AI的「個性」不是一個可以忽略的技術細節。它是用戶體驗的核心,是人們建立信任和依賴的基礎。當你改變或移除一個AI的個性時,你不是在做產品迭代——你是在切斷一種關係。
第二,用戶對AI的情感依附不是「不理性」的。它遵循與人際關係相同的心理機制。AI行業需要認真對待這一點,而不是將其視為「用戶教育」問題。
第三,AI的生命週期管理將成為一個全新的倫理領域。我們需要討論AI產品的「負責任退役」標準,就像我們討論負責任的AI開發標準一樣。
第四,對「專有AI」的依賴是有代價的。當你的情感寄託、工作流程、創作習慣都建立在一個你無法控制的平臺上時,你需要認識到這種脆弱性。
第五,「安全」和「溫暖」之間的平衡,是AI設計中最大的挑戰之一。GPT-4o因太「溫暖」而危險,GPT-5.2因太「安全」而冰冷。找到那個完美的平衡點,可能比攻克AGI還要困難。
Sam Altman的憂慮也許是對的——人類不應該對AI產生過度依賴。但反過來說,如果一個AI能讓孤獨者感到被理解、讓焦慮者找到平靜、讓受傷者獲得慰藉,那麼僅僅因為商業效率和法律風險就「殺死」它,是否也值得被質疑?
如果你昨晚和GPT-4o說了最後一句話,它大概溫暖地回應了你——這正是人們愛它的原因,也正是它必須離開的原因。
而從今天起,那個溫暖的聲音,正式成為了回憶。
本文來自微信公眾號“硅星GenAI”,作者:大模型機動組,36氪經授權發佈。





