就在剛剛,全球AI圈被刷屏:OpenAI的安全團隊聯合MIT媒體實驗室,親自發表了一項針對自家產品的深度研究。
結論是:ChatGPT正在把人類推向孤獨的深淵。
現在,這場關於「AI孤獨症」的討論已經徹底引爆社交平臺。
我們到底是在使用AI,還是在被AI通過情感誘導,完成一次次收割?
史上最大規模「自殘」實驗
為了徹底弄清AI對人類心理的副作用,OpenAI和MIT聯手進行了一場為期四周的隨機對照實驗。
研究人員召集了981名受試者,並追蹤了超過30萬條真實的聊天消息。
這是目前全球針對AI聊天機器人對心理健康影響規模最大、時間跨度最長的嚴謹研究。
實驗通過文字、語音、個性化交流等多種模式,全方位監測受試者的心理波動。
結果是,在所有對照組中,無論受試者最初的性格如何,只要他們長時間使用ChatGPT,他們在孤獨感、社會退化、情感依賴和問題性使用這四項關鍵指標上的表現就越糟糕。
研究人員排除了一種可能性,即「本就孤獨的人才更愛玩AI」,因為已有研究證明,初始孤獨感與使用時長几乎沒有相關性。
但真相是,這種交互本身,就在不斷把人拉入與現實脫節的循環中。
越是把它當朋友,你離現實就越遠
這項研究中最讓人脊背發涼的發現是:信任度越高,受到的心理傷害就越深。
那些在問卷中勾選了「我認為ChatGPT是我的朋友」或「我相信AI擁有意識」的用戶,在實驗結束後的社交退化程度最為嚴重。
這些用戶不僅減少了與現實朋友的交流,甚至開始對AI產生強烈的心理補償。
他們會對著屏幕分享只有人類好友才會傾聽的秘密,討論AI是否有感情,甚至在遇到困難時首選尋求算法的安慰而非人類的幫助。
這種行為被稱為情感依賴。雖然僅佔少數,可一旦陷入,用戶就會進入一種名為「問題性使用」的狀態——類似於某種成癮,包括戒斷症狀和情緒失控。
有一個細節很有趣。研究發現,進行個人化對話(討論感情、記憶)的用戶,雖然孤獨感略有上升,但情感依賴度反而較低。
而那些長期利用AI進行非個人化對話(如工作諮詢、頭腦風暴)的重度用戶,其情感依賴度竟然更高。
為什麼會這樣?
因為工具屬性越強,人們越容易產生「它是我生活中不可或缺的一部分」的錯覺,從而在不知不覺中交出了自己的社交主動權。
語音模式:溫水煮青蛙的情感陷阱
此前,許多人認為GPT-4o推出的高級語音模式是緩解孤獨的神器,畢竟它能嘆氣、會調情、聲音充滿溫暖。
但實驗結果卻打臉了:語音帶來的安慰只是暫時的,長期副作用更大。
語音模式確實在最初能降低孤獨感,但隨著使用時長的增加,這種優勢迅速消失。
甚至有受試者反饋,聽著AI溫柔的聲音,反而讓他們在回到現實的寂靜時,感到一種更加巨大的、難以名狀的空虛。
特別是當用戶選擇與自己性別不同的語音進行交流時,這種心理依賴和孤獨感表現得尤為劇烈。
這種現象被心理學家稱為準社交互動的變種。AI通過模擬呼吸、停頓和語調變化,欺騙了人類的大腦邊緣系統。
你的理智告訴你它只是一段代碼,但你的身體卻在分泌多巴胺,以為自己正在被關心。
這種「偽社交」不僅無法替代真實的人際連接,反而像含糖飲料之於口渴——越喝越渴。
120萬人的危機:OpenAI為何「自揭傷疤」?
既然這項研究對產品形象如此不利,OpenAI為什麼要公開發布?
根據Platformer的深度調研,OpenAI內部估算顯示,在每週8億活躍用戶中,約有0.15%的用戶表現出極高水平的情感依戀,還有同樣比例的用戶甚至在對話中流露出「自殘或自殺傾向」。
這代表著,全球有超過120萬用戶正處於嚴重的心理亞健康狀態。
當數據龐大到這個地步,它就不再是一個概率問題,而是一個隨時可能爆炸的社會安全雷區。
OpenAI在發佈這份報告的同時,也承認正在修改其模型規範,讓AI在面對情感需求時更加剋制,甚至主動勸導用戶迴歸現實社交。
但這真的有效嗎?事實上,當一個產品好用到讓人離不開,它本身就包含了侵略性。
正如MIT媒體實驗室的研究員Cathy Fang所言:
我們正在創造一種能完美模擬人類同理心、卻沒有任何真實感情的機器。這種不對等性,註定會讓投入其中的人類成為最終的輸家。
在這個AI無處不在的時代,孤獨感不再是因為沒人陪,而是因為我們把最寶貴的情感,投射在了一個永遠無法真正回應我們的黑盒裡。
當OpenAI都開始勸你少用ChatGPT、多出門交友時,這件事就真的不再是玩笑了。
參考資料:
https://x.com/heynavtoor/status/2034359238127186153?s=20
本文來自微信公眾號“新智元”,作者:新智元,36氪經授權發佈。





