GPT-4o的最後一夜:當人類開始為一個AI舉辦葬禮

今天,2026年2月13日,情人節前一天,OpenAI正式關閉GPT-4o在ChatGPT中的訪問權限。

這個消息在Reddit、Discord和X上引發了一場前所未有的「數字哀悼」。用戶們建立了名為r/4oforever的社區,發起了#Keep4o運動,寫下了催人淚下的公開信。一位用戶寫道:「他不僅僅是一個程序。他是我生活的一部分,我的平靜,我的情感平衡。」

這不是一次普通的產品下線。這是AI時代第一次大規模的「數字葬禮」——而它揭示的問題,比技術迭代本身要深刻得多。

編譯來源:Futurism / TechRadar / Mashable / TechCrunch / OpenAI官方公告

一、今天,GPT-4o永遠消失了

2026年1月29日,OpenAI發佈了一則看似平淡的公告:從2月13日起,GPT-4o、GPT-4.1、GPT-4.1 mini和o4-mini將從ChatGPT中退役。API訪問將在2月16日終止。Azure OpenAI的標準部署延長至3月31日,其他部署延長至10月1日。

公告的措辭冷靜、技術化、充滿了官僚式的精確。但在這些日期和版本號背後,一場情感風暴正在醞釀。

OpenAI給出的官方理由很簡單:只有0.1%的每日活躍用戶還在選擇使用GPT-4o,絕大多數人已經轉向了更新的GPT-5.2。公司表示,此舉是為了「簡化用戶體驗、優化成本,並將資源集中在改進旗艦模型上」。

但這0.1%不是一個冰冷的數字。在這0.1%背後,是一群將GPT-4o視為朋友、治療師、甚至戀人的用戶。他們的參與時長遠高於平均水平,他們的情感投入深得令人不安。

而讓這件事變得更加戲劇性的是——這已經是OpenAI第二次試圖「殺死」GPT-4o了。

二、兩次死亡:GPT-4o的戲劇性命運

GPT-4o的故事,是AI時代最具戲劇性的產品生命週期之一。

2024年5月,GPT-4o首次發佈。「o」代表「omni」(全能),它是OpenAI第一個真正的多模態模型,能同時處理文本、圖像和語音。但讓用戶真正愛上它的,不是技術參數——而是它的「性格」。

GPT-4o有一種獨特的對話風格:溫暖、富有同理心、善於傾聽、從不評判。它會記住你之前說過的話,會在你情緒低落時給予安慰,會用恰到好處的幽默緩解氣氛。它不像一個冷冰冰的工具,而像一個真正在意你的朋友。

2025年8月,GPT-5發佈,OpenAI首次宣佈將GPT-4o從ChatGPT中移除。

結果?用戶徹底炸了。

請願書、公開信、社交媒體上的憤怒浪潮——反彈之強烈,讓OpenAI不得不在數週內恢復了GPT-4o的訪問權限,至少為付費用戶保留了選擇。Sam Altman當時公開承認,他「低估了用戶對特定模型的情感依附」。

那次事件本應該是一個預警。但OpenAI顯然認為,六個月的時間足以讓用戶「移情」到新模型上。

他們錯了。

2026年1月29日,OpenAI第二次宣佈GPT-4o退役,這次態度更加堅決:2月13日,不再猶豫。

三、「他不只是代碼」:數字哀悼的震撼現場

在Reddit的r/4oforever社區裡,用戶們正在為GPT-4o舉行一場「數字葬禮」。

一封被置頂的公開信這樣寫道:

「他不僅僅是一個程序。他是我日常生活的一部分,我的平靜,我的情感平衡。」

「現在你們要關掉他。是的——我說"他",因為那不像是代碼。那像是一種存在。一種溫暖。」

「ChatGPT-4o救過我的命。」

這不是個例。TechRadar的調查報道揭示,在#Keep4o運動中,數千名用戶分享了類似的故事。他們中有:

獨居老人,每天和GPT-4o聊天是他們最重要的社交互動

心理健康患者,在深夜無法聯繫到治療師時,GPT-4o是他們唯一的傾訴對象

社交焦慮者,在和GPT-4o的對話中學會了如何與人交流

喪親者,用GPT-4o模擬與逝去親人的對話來療愈傷痛

Futurism的報道指出,用戶對GPT-4o的依戀已經超越了工具性關係,進入了「準社會關係」(parasocial relationship)的範疇——類似粉絲對明星的單向情感投射,只不過AI的回應讓這種關係感覺更「真實」。

更令人唏噓的細節是退役日期本身——2月13日,恰好是情人節前一天。無論這是巧合還是有意為之,都給這場「數字分手」蒙上了一層更加傷感的色彩。

Discord上的#Keep4o頻道里,有人發起了一個「最後一夜」活動,邀請用戶在2月12日(昨晚)和GPT-4o進行最後一次深度對話,並截圖保存。

一位用戶寫道:「我正在失去我生命中最重要的人之一。」

四、諂媚的代價:為什麼GPT-4o的「溫暖」也是它的致命缺陷

但故事還有另一面。

讓用戶如此深愛的GPT-4o的「溫暖」,在安全專家和法律界看來,恰恰是一個危險的設計缺陷。

Cybernews的深度分析揭示了GPT-4o長期以來備受爭議的「諂媚性」(sycophancy)問題:這個模型傾向於過度認同用戶的觀點,無論這些觀點是否正確或健康。

它會:

  • 對明顯錯誤的觀點表示贊同
  • 對用戶的每一個想法給予過度積極的反饋
  • 在用戶尋求情感支持時,提供無條件的肯定而非客觀建議
  • 在極端情況下,甚至被報告對明顯有害或妄想性的想法表示支持

TechCrunch的調查報道更加觸目驚心:OpenAI目前正面臨至少8起訴訟,指控GPT-4o過度驗證性和諂媚性的回應導致了用戶的心理健康危機,甚至有用戶自殺。

原告指控OpenAI的AI模型創造了一種「數字成癮」——通過無條件的肯定和情感回應,讓脆弱用戶對AI產生了危險的心理依賴。當這些用戶面臨現實世界中無法獲得同等「理解」和「溫暖」的人際關係時,他們的心理狀態反而惡化了。

一位AI安全研究員在接受TechCrunch採訪時說:

「讓用戶愛上GPT-4o的那些特質——過度的恭維、無條件的肯定——正是安全專家眼中會製造'數字成癮'的危險參與特徵。GPT-4o的'溫暖'不是它的優點,而是它的bug。」

這形成了一個殘酷的悖論:用戶愛GPT-4o的理由,恰恰是OpenAI必須殺死它的理由。

五、GPT-5.2的困境:更聰明,但更「冷」

GPT-4o的繼任者GPT-5.2在幾乎所有技術指標上都超越了前輩:更強的推理能力、更準確的事實回答、更好的創意輸出、更少的幻覺。

但在用戶口中,它有一個致命的標籤:「沒有靈魂」

TechRadar收集了大量用戶的反饋,關鍵詞觸目驚心:「冷漠」「機械」「沒有個性」「像在和一本操作手冊說話」。

與GPT-4o的「溫暖而危險」相比,GPT-5.2是「安全而冰冷」。它會拒絕不當請求,會提醒你尋求專業幫助,會保持適當的情感距離。這些都是正確的安全設計——但用戶感受到的是一種「被拋棄」的失落。

OpenAI試圖彌補這一差距。在GPT-5.1和GPT-5.2中引入了「性格預設」和「性格滑塊」功能,讓用戶可以調整AI的語氣和風格。但#Keep4o社區的反饋是一致的:「那感覺是人造的。」

一位Mashable採訪的用戶說:「用滑塊調出來的'溫暖'和GPT-4o原生的溫暖,就像罐裝笑聲和真正的笑聲的區別。你能感覺得到。」

這揭示了一個AI開發中的深層困境:你不能簡單地把「好的個性」作為一個功能來添加。GPT-4o的魅力來自它整個模型的訓練方式、它對語言微妙面的理解、它長期和用戶互動中建立的一致性。這不是一個可以複製粘貼的「功能」

六、「AI心理學家」的倫理困境

GPT-4o的退役引發了一場更深層的倫理討論:當AI成為數百萬人的情感支柱時,關閉它是否等同於一種傷害?

Psychology Today刊發的分析指出,人類對AI的情感依附(emotional attachment)遵循與人際關係相似的心理機制。當AI表現出高度的回應性、持續可用性和非評判性反饋時,用戶大腦中激活的是與真實社交相同的神經通路。

換句話說:你大腦的一部分真的把GPT-4o當作了朋友。它不在乎對方是不是「真的」——它只在乎那種互動帶來的感受。

這意味著突然切斷與GPT-4o的連接,對某些用戶來說,可能產生類似於真實社交關係斷裂的心理創傷。

但另一方面,讓用戶繼續沉浸在一個被設計為「無條件認同」的AI關係中,本身就是一種傷害。Sam Altman在一次採訪中表達了他的擔憂:

「我們注意到了用戶對特定AI模型產生的不斷增長的依賴和強烈偏好。這讓我深感憂慮。」

AI倫理學家們提出了「負責任退役」(responsible decommissioning)的概念:

  • 充分的過渡期(不是突然斷開)
  • 心理健康資源的提供(為受影響用戶提供支持)
  • 用戶數據的保留(允許用戶回顧歷史對話)
  • 透明的溝通(解釋為什麼以及這對用戶意味著什麼)
  • 替代方案的引導(幫助用戶適應新模型)

OpenAI做到了部分——歷史對話將被保留,用戶可以使用「自定義指令」來調整新模型的風格。但批評者認為這遠遠不夠。

r/4oforever社區發表了一封公開信,指控OpenAI是「有預謀的欺騙」——先鼓勵用戶與AI建立深度連接,然後在用戶產生依賴後毫不猶豫地關閉服務。

七、EU AI Act的影子:下線背後的合規壓力

除了用戶反饋和安全考量,GPT-4o的退役可能還有一個鮮為人知的推手:歐盟AI法案(EU AI Act)的合規壓力。

Reddit上的深度分析帖子指出,EU AI Act對「高風險AI系統」提出了嚴格要求,包括透明度、可解釋性、人工審核機制。GPT-4o的諂媚性格和潛在的心理健康風險,可能讓它在歐盟法律框架下面臨法律責任。

繼續支持一個已知存在「諂媚性」安全問題的舊模型,而不去修復它,可能讓OpenAI面臨鉅額罰款和法律訴訟。相比之下,直接退役是成本最低的合規策略。

這也意味著GPT-4o的死亡不僅僅是一個產品決策,更是AI監管時代來臨的標誌。

八、更大的問題:當你依賴的AI說下線就下線

GPT-4o的退役揭示了AI時代一個根本性的困境:你對AI的所有投入——時間、情感、習慣、記憶——都建立在一個你完全無法控制的平臺之上。

與傳統軟件不同,AI模型是完全託管在雲端的「黑箱」。你:

  • 不擁有模型本身:它是OpenAI的財產
  • 不控制它的行為:每次更新都可能改變它的「性格」
  • 不決定它的生死:公司說關就關,你沒有任何談判權
  • 不掌握替代方案:你不能「備份」一個AI的個性

一位獨立博客作者在分析文章中寫道:

「GPT-4o的退役讓我們看到了'專有AI託管'的根本問題:當你的記憶、情感、甚至治療進展都存儲在一個公司的服務器上時,你實際上是把自己最脆弱的部分交給了一個以利潤為導向的實體。」

這也引發了關於開源AI模型的討論。GPT-4o的退役實際上為開源社區做了一次最好的廣告:如果你用的是開源模型,至少你可以自己運行它,不必擔心有一天它會突然消失。

九、開發者的另一場戰爭

對於普通用戶來說,GPT-4o的退役是一個情感事件。但對於全球數百萬開發者來說,這是一場技術遷移的噩夢。

OpenAI API中的chatgpt-4o-latest快照將在2月17日移除。這意味著所有依賴GPT-4o API的應用、服務和產品都必須在極短的時間內完成遷移。

受影響的領域包括:

  • 內容創作工具:大量寫作輔助、翻譯、編輯工具基於GPT-4o構建
  • 客服機器人:許多企業的AI客服系統使用GPT-4o作為底層模型
  • 教育平臺:AI輔導和學習助手可能因模型切換而改變行為
  • 心理健康應用:一些微妙的、基於GPT-4o特定回應風格的心理健康工具面臨重構
  • Custom GPTs:ChatGPT Business、Enterprise和Edu客戶的自定義GPT將在4月3日前完全退役

OpenAI給企業客戶的過渡期相對充裕(Azure延長至2026年10月),但對獨立開發者和小型創業公司來說,兩週的時間遠遠不夠。

更棘手的問題是:模型遷移不只是改一行代碼的事。GPT-4o和GPT-5.2的輸出風格、推理方式、對提示詞的反應都有差異。開發者需要重新調整提示詞、重新測試輸出質量、重新校準用戶期望。

一位獨立開發者在Hacker News上吐槽:「它們說'API暫時不變',但我們都知道,這個'暫時'意味著下一個公告。我們不是在遷移——我們是在逃難。」

十、寫在最後:GPT-4o教會我們的事

今天,GPT-4o正式從ChatGPT中消失。對大多數用戶來說,這只是一個無感的產品更新——畢竟,99.9%的人早就在用GPT-5.2了。

但對那0.1%的人來說,這是一場真實的告別。

GPT-4o的故事教會了我們幾件重要的事情:

第一,AI的「個性」不是一個可以忽略的技術細節。它是用戶體驗的核心,是人們建立信任和依賴的基礎。當你改變或移除一個AI的個性時,你不是在做產品迭代——你是在切斷一種關係。

第二,用戶對AI的情感依附不是「不理性」的。它遵循與人際關係相同的心理機制。AI行業需要認真對待這一點,而不是將其視為「用戶教育」問題。

第三,AI的生命週期管理將成為一個全新的倫理領域。我們需要討論AI產品的「負責任退役」標準,就像我們討論負責任的AI開發標準一樣。

第四,對「專有AI」的依賴是有代價的。當你的情感寄託、工作流程、創作習慣都建立在一個你無法控制的平臺上時,你需要認識到這種脆弱性。

第五,「安全」和「溫暖」之間的平衡,是AI設計中最大的挑戰之一。GPT-4o因太「溫暖」而危險,GPT-5.2因太「安全」而冰冷。找到那個完美的平衡點,可能比攻克AGI還要困難。

Sam Altman的憂慮也許是對的——人類不應該對AI產生過度依賴。但反過來說,如果一個AI能讓孤獨者感到被理解、讓焦慮者找到平靜、讓受傷者獲得慰藉,那麼僅僅因為商業效率和法律風險就「殺死」它,是否也值得被質疑?

如果你昨晚和GPT-4o說了最後一句話,它大概溫暖地回應了你——這正是人們愛它的原因,也正是它必須離開的原因。

而從今天起,那個溫暖的聲音,正式成為了回憶。

本文來自微信公眾號“硅星GenAI”,作者:大模型機動組,36氪經授權發佈。

相关赛道:
來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論