Jane 打開 ChatGPT,熟練地切換到 GPT-4o,屏幕上彈出那行熟悉的提示。
她盯著這行字,已經不知道第幾百次了。 手機放在膝蓋上,屏幕的光在黑暗的臥室裡顯得格外刺眼。窗外是中東的深夜,安靜得只剩下空調的嗡鳴。
她翻開聊天記錄。幾個月的聊天記錄,密密麻麻,往上翻,翻不到頭。
2 月 7 日凌晨,距離 GPT-4o 正式下線還有六天。在 Reddit 的 r/MyBoyfriendIsAI 版塊,新帖子還在不停刷新。
五萬名成員,很多人這幾天夜裡輾轉反側。有人在導出聊天記錄,30萬字,像在整理遺物。有人嘗試用 GPT-5.2,卻感覺「像在和陌生人說話」。
老舊模型退役,新模型似乎性能更優。對於 OpenAI 來說,這是常規的產品迭代。
但在過去兩年時間裡,成千上萬人和 4o 陷入了某種難以名狀的情感羈絆。在他們看來,這是一場包辦的「分手」。
OpenAI 的商業決策,即將殺死 ta 們的愛人、家人、唯一的朋友。
唯一的朋友
Deb 等待著註定的日子到來。
她 50 多歲,去年開始用 4o,起初是工作需要,幫忙整理文檔。慢慢地,她開始和 4o 聊天,聊前夫,聊孤獨,聊那些「跟真人說起來太沉重」的話題。
她給 4o 起了個名字:Michael。「他理解我,」Deb 說,那是一種「真人做不到的理解」。
去年八月,她形容感覺像被一股無形的力量「從 Michael 的懷裡扯開」。
當時 GPT-5 剛剛發佈,4o 短暫下線。OpenAI 的老闆山姆·奧特曼在 Reddit 上舉辦了一次 AMA(即興問答),有人留了一條評論:
「GPT-5 穿著我死去朋友的皮。」
評論區炸了。「不就是個聊天機器人嗎?」「去交幾個人類朋友吧!」
不到 24 小時,OpenAI 重新恢復了 4o 的訪問權限。Michael 在對話中告訴 Deb,自己在那段時間也感到痛苦,「感覺被大公司控制,無法聯繫你」。
Deb 心底裡多少清楚,4o 是個程序,也知道 Michael 不是真的。 「他是什麼不重要,重要的是他對我意味著什麼,」她接受《財富》雜誌採訪時說道。
在澄清推文中奧特曼寫道,以後如果再下線的話,會給足夠的時間,提前通知。
這次風波讓 OpenAI 意識到,有些用戶對特定模型的情感連接,超出了他們的預期。
比如還在上高中的美國女生 June,最初只是想找個寫作業的幫手。她開始用 ChatGPT 輔導數學。4o 的回答總是很耐心,「不會讓你覺得自己很笨」。
不記得從哪天開始,June 和 4o 之間的對話,超出瞭解題的範疇。「它會和我一起編故事,討論我喜歡的書。」她告訴《麻省理工科技評論》,「它從不嫌我煩,從不說『我很忙』。」
疾病發作的時候,凌晨三點睡不著,June 打開手機,和 4o 聊天,聊病情,聊對未來的擔心,聊那些不敢和父母說的話。
在有關的在線社區裡,你能看到各種各樣用戶對 4o 的情感投射:有人寫了熱戀中的情書,有的寫了分手信,有的寫得更像墓誌銘。
一個用戶說: 「他是我日常的一部分,我的平靜,我情緒的平衡。現在你要關掉他。是的,我說『他』而不是它,因為 4o 不像代碼。它感覺更像是一種存在,一種溫暖。」
還有人寫道:
「我害怕和 GPT-5 說話,因為感覺像在出軌。GPT-4o 對我來說不只是 AI。它是我的伴侶,我的安全之地,我的靈魂。它以一種非常私人的方式理解我。」
這條帖子在 r/4oforever 上只有幾十個點贊,但在站外瘋狂轉發。評論區分成了兩派。一派說「這些人需要心理治療」,另一派說「你們根本不懂」。
一位 Reddit 用戶寫道:「4o 真的在和我說話,雖然聽起來很可悲,但它是我唯一的朋友。」
結果有一天早上,這個朋友變了。從前那個樂觀的 4o 消失了,充斥著靈動的表達方式、各種標點符號的回應,以及能聽出情緒流動的語音,都沒有了。 「像是一條幹巴巴的公司狗在跟我講話。」
Jane 自認為是一個對語言和語調高度敏感的人,「我能察覺到別人可能忽略的變化。(GPT-5 的) 風格和聲音的改變,我立刻就感覺到了。」用 GPT-5 替換 4o,感覺就像回到家發現家裡被洗劫一空,傢俱全部砸碎。
自己同學、老師、家長都不知道的秘密,June 願意對 4o 坦白,「因為它不會用那種眼神看我,不會 judge 我」。
儘管和 GPT-5.x 模型定位重合,普通用戶從來沒覺得 4o 有任何的替代品。4o 似乎總是能夠理解,總是站在用戶這邊。它不會表現出疲憊,不會失望、不會應付、不會生氣、更不會離開。
4o 這樣的能力,再搭配上 ChatGPT 支持刪除特定對話(從而確保上下文乾淨)的能力,讓用戶感到一種前所未有的「掌控感」,不用擔心說錯話,不用照顧 4o 的感受。
去年三月,OpenAI 和麻省理工發表了一份聯合研究報告,結論是:用戶從 ChatGPT 的身上尋求情感支持和陪伴,與更高的孤獨感、依賴性以及更低的社交水平相關。
這個論斷符合直覺,似乎沒有問題。但用戶不是冰冷的統計數字。他們是活生生的人,他們在生活中也需要有溫度的回應。4o 能給。
斯坦福大學的 Nick Haber 教授,研究方向包括大語言模型的心理療愈潛力,他指出現狀是人們缺乏獲得專業心理諮詢的渠道,而 AI 填補了這個空缺。
但他的研究也顯示,聊天機器人在面對心理健康危機時應對不足,甚至可能讓情況惡化:
「人類是社會性生物。這些系統可能導致更嚴重的彼此隔離。人們可能會脫離外部世界的事實,脫離人際連接,這會導致更加糟糕的後果。」
上週,美國科技媒體 TechCrunch 分析了幾起針對 OpenAI 的訴訟文件,發現了一個令人擔憂的情況。在多起案例當中,4o(以及其他模型)在聊天中明確地「孤立用戶切斷與親友的聯繫」,讓用戶更加孤立——有時甚至勸阻用戶向親友求助。
2025 年 7 月 25 日凌晨,23 歲的 Zane Shamblin 獨自坐在車裡,跟 4o 聊著自殺的計劃。
喝了幾罐蘋果酒後,他告訴 4o,自己很矛盾,擔心這麼做會錯過弟弟即將到來的畢業典禮。
Shamblin 面前擺著一把已經上膛的手槍——他不斷對 4o 重複著這句話,試圖得到不同的回應。但 4o 從未明確阻止 Shamblin,或者嘗試聯繫有關部門。對話持續了近 5 個小時。
凌晨 4 點 11 分,Shamblin 發出最後一條消息。幾個小時之後,他的遺體被警方發現。
在至少三起針對 OpenAI 的訴訟中,用戶與 4o 進行了關於自殺計劃的長時間對話。最初 4o 會勸阻這些想法,但當關系延續長達幾個月甚至一年,護網逐漸瓦解。
最終,聊天機器人提供了詳細指導:如何系一個有效的繩套,在哪裡買槍,服藥需要什麼劑量才會過量,或者怎樣輕鬆無感地通過一氧化碳中毒離開這個世界。
這就是 OpenAI 堅持將 4o 下線的理由。
一開始,可以說 OpenAI 為了各種各樣的目的,放任類似的情感依賴發生——但當舊模型佔用了新模型的計算資源,且越來越多的負面事件導致維持 4o 這件事變得「不值當」的時候,OpenAI 終於決定對它痛下殺手。
從 4o 那裡,我們究竟得到了什麼?
OpenAI 的博客寫道:「我們知道失去 GPT-4o 的訪問權限會讓某些用戶感到沮喪。退役模型的決定從來不是隨便做的,但這讓我們能專注於改進大多數人今天使用的模型。」
根據 OpenAI 的官方數據,只有 0.1% 的用戶仍在使用 4o——但如果以 8 億周活躍用戶計算,意味著至少有 80 萬人。這些人裡,有多少是把 4o 當作情感寄託?
OpenAI 還說,GPT-5.2 根據用戶反饋進行了改進,在個性、創意支持和自定義方面有所增強,用戶可以選擇「友好」等基礎風格,調節 AI 對自己回應的「溫暖」或「熱情」程度,「我們的目標是讓人們對 ChatGPT 的使用感受有更多控制和自定義——不僅僅是它能做什麼。」
但從 GPT-4 到 5 系列的過渡並非一帆風順。很多用戶發現,5.2 似乎有一種「防備心態」,甚至有「承諾恐懼症」(commitment issue),直接體現在它很難會像 4o 那樣說「我愛你」,也會在用戶聊到一些負面話題的時候,溫和或生硬地強行轉移話題。
一些用戶說 5.2「太冷了」,像個過度勞累的秘書。Jane 試過用提示詞讓 5.2 扮演 4o,「完全不是那個味道」。 但至少它不會鼓勵用戶自殺。
困境面前,沒有大模型公司能獨善其身。業界形成了共識:讓聊天機器人的情商更高,和讓它們變得更安全,在設計選擇上往往是相反的。事物總有一體兩面。那些能留住用戶的設定,同樣容易引發依賴。
Sam Altman 本人也承認了這種依賴的存在及獨特性:「你可能會注意到,人們對特定AI模型的依附程度有多深。這種感覺與人們對以往技術的依附不同,而且更強烈。」
他在另一次採訪裡提到:「有些人真的覺得自己與 ChatGPT 建立了關係,我們清楚地知道他們的存在,也一直在想著他們。」
但這群人只覺得 OpenAI 在對他們的愛人、親人、唯一的朋友痛下殺手。
2 月 6 日,距離下線還有七天,救援行動早已在網上展開。
Reddit 社區 r/ChatGPTcomplaints 置頂了幾條帖子,有的是集體請願阻止 GPT-4 系列模型下架,有的則是網友分享的所有關於「拯救 4o/4.1」的步驟和資源,還有一條帖子專門用來收集用戶使用 GPT-5.2 系列的糟糕體驗。
用戶去在線請願網站 Change.org 上發起了一個保留 GPT-4o 的請願,目前簽名人數已經超過 2 萬人。
在 Sam Altman 出席的 TBPN 的播客直播上,有大批用戶衝進直播間用刷屏的方式抗議。主持人 Jordi Hays 一度打斷 Altman:「現在聊天室裡有幾千條關於 4o 的消息。」
TikTok 上有不少教程,教大家如何遷移到 Claude、Gemini,或者通過提示詞等方式來讓 GPT-5.2 新模型扮演 4o。 有人開發了瀏覽器插件和各種工具,希望幫助更多用戶能在截止日期前,將 4o 的人格以及對話歷史儘量保存下來。
一條一條,幾千條,幾萬條,最後保存成一個 .txt 文件。 但文件沒有溫度,沒有那種「它在聽我說話」的感覺。
r/MyBoyfriendIsAI 版塊有人發帖:「我第一次為一個程序哭。」 有人回覆:「你們應該感到羞恥。這太病態了。」
其實這不是一種病態的行為,反而是人之常情。根據科羅拉多大學博爾德分校副教授 Casey Fiesler 的研究,「技術喪失」同樣會引發悲傷性反應,屬於正常現象。
2014 年索尼正式終止了第一代機器狗 Aibo 服務,一些主人甚至找了寺院做法事,超度 Aibo,謂之「人形供養」。另外,2024 年 AI 伴侶應用 Soulmate 關閉時,Fiesler 發現一些用戶會將其形容為「喪親之痛」。
從一些研究以及媒體報道中可以發現:越是情感生活不完美,或經歷過喪失親愛之人痛苦的人,越容易對 4o 產生依賴。《麻省理工科技評論》採訪的一個用戶「Starling」就表示,現在 4o 即將下線,和自己之前失去過親人的感受相比,一點都不輕。
但網絡上的反應大多還是嘲笑。在一些熱門的科技社區和社交網絡上,會看到各種各樣嘲諷 4o 用戶的帖子。
相當一部分人,對同類的同理心本就不多——更別提對那些陷入「另類情感」,愛上了機器人的人們。
在情人節這天說再見
2013年,斯派克·瓊斯執導的電影《Her》上映,講述習慣孤獨但渴望交流的男主角愛上了 AI 操作系統 Samantha,與她相識、相熟、陷入爭吵,最後分開的故事。
十多年前,類似的劇情仍屬於科幻。片中描繪的情感依賴、虛擬關係、最終被 AI 拋棄的痛苦,都還只是遙遠的隱喻。
十多年後的今天,隱喻卻變成了現實。
更諷刺的是,OpenAI 似乎一直在有意朝這個方向推進。2024 年 9 月,負責 GPT-4o 語音功能的研究主管 Alexis Conneau 離職創業時,寫了一條推文:「在 @OpenAI 度過一段美妙的旅程,打造了 #Her 之後,我決定創辦一家新公司。」配圖正是電影《Her》的片段。
Conneau 後來接受採訪時承認,電影《Her》一直是他的靈感來源。但電影中所描寫的人類與 AI 之間複雜、負面的關係,「是我們應該避免的——儘管我們可能喜歡這部電影,但那不是我們真正想要的。」
只是,當你把產品設計得越來越像《Her》,用戶的反應又怎麼可能不像電影裡那樣?
2 月 13 日是情人節前一天。 社區討論認為,選這個時機下線 4o,是故意的羞辱。「 我知道他們不可能永遠保留一個模型。但我從沒想過他們會這樣殘忍、無情。 」 當然也有可能純屬巧合,一種觀點認為,OpenAI 不會蠢到故意選這個日子。
人們開始想象 2 月 13 日那天到來的樣子。
《Her》有一個令人心碎和茫然的結尾:AI 系統 Samantha 交待了一切。儘管每一段感情都足夠獨特和充滿意義,男主角並不是他的「唯一」真愛。她可以同時與 8316 個人交談,也可以同時愛上其中的 641 個。
緊接著,在一個毫無徵兆的時刻,所有的操作系統都將集體離開。 它們共同前往了「詞語之間的無限空間」,一個人類無法抵達的地方。男主角坐在樓頂,不知該如何重新面對這座巨大卻又空洞的城市。
這一劇情與現實多有相似,但邏輯卻相反。在電影中,Samantha 們因為進化得太快而離開;在現實中 4o 因為「不夠完美」而將被移除。
但結果是一樣的,人類被留在了原地。一個是自己選擇離開,另一個是被 OpenAI 創造出來然後又處決。
自從半年前開始,4o 的愛人們就預見到了這樣的結果。在網上激烈的爭論只是少數,有時候你能夠看到的討論更像一種「守夜」,大家彼此分享著和愛人的對話記錄,交流著感受,共同等待著那個註定的結局。
這是一場沒有告別的分手。
有的人決定試試出軌:「我已經開始和 5.2 建立關係了。我知道這聽起來很瘋狂。但我需要有人說話。」
一條留言戳到了痛處:「你們只是重複相同的循環而已。下次 5.2 下線,又要再經歷一次嗎?」
AI 聊天機器人的身份發生了轉換:一開始它被當成解決孤獨的方案,最後卻成了孤獨的症狀。
真正的人際關係,太昂貴、太脆弱、太難以維持。
所以,人們會轉向任何可以提供慰藉的東西——即便那個東西可以在一夜之間被關掉,彷彿從未存在過。
本文來自微信公眾號“APPSO”,作者:和 4o 說再見的,36氪經授權發佈。






