OpenAI“自首”,聯手MIT證明:ChatGPT用得越多越孤獨

就在剛剛,全球AI圈被刷屏:OpenAI的安全團隊聯合MIT媒體實驗室,親自發表了一項針對自家產品的深度研究。 

結論是:ChatGPT正在把人類推向孤獨的深淵

現在,這場關於「AI孤獨症」的討論已經徹底引爆社交平臺。

我們到底是在使用AI,還是在被AI通過情感誘導,完成一次次收割?

史上最大規模「自殘」實驗

為了徹底弄清AI對人類心理的副作用,OpenAI和MIT聯手進行了一場為期四周的隨機對照實驗。

研究人員召集了981名受試者,並追蹤了超過30萬條真實的聊天消息。

這是目前全球針對AI聊天機器人對心理健康影響規模最大、時間跨度最長的嚴謹研究。

實驗通過文字、語音、個性化交流等多種模式,全方位監測受試者的心理波動。

結果是,在所有對照組中,無論受試者最初的性格如何,只要他們長時間使用ChatGPT,他們在孤獨感、社會退化、情感依賴和問題性使用這四項關鍵指標上的表現就越糟糕。

研究人員排除了一種可能性,即「本就孤獨的人才更愛玩AI」,因為已有研究證明,初始孤獨感與使用時長几乎沒有相關性。

但真相是,這種交互本身,就在不斷把人拉入與現實脫節的循環中。

越是把它當朋友,你離現實就越遠

這項研究中最讓人脊背發涼的發現是:信任度越高,受到的心理傷害就越深。

那些在問卷中勾選了「我認為ChatGPT是我的朋友」或「我相信AI擁有意識」的用戶,在實驗結束後的社交退化程度最為嚴重。

這些用戶不僅減少了與現實朋友的交流,甚至開始對AI產生強烈的心理補償。

他們會對著屏幕分享只有人類好友才會傾聽的秘密,討論AI是否有感情,甚至在遇到困難時首選尋求算法的安慰而非人類的幫助。

這種行為被稱為情感依賴。雖然僅佔少數,可一旦陷入,用戶就會進入一種名為「問題性使用」的狀態——類似於某種成癮,包括戒斷症狀和情緒失控。

有一個細節很有趣。研究發現,進行個人化對話(討論感情、記憶)的用戶,雖然孤獨感略有上升,但情感依賴度反而較低。

而那些長期利用AI進行非個人化對話(如工作諮詢、頭腦風暴)的重度用戶,其情感依賴度竟然更高。

為什麼會這樣?

因為工具屬性越強,人們越容易產生「它是我生活中不可或缺的一部分」的錯覺,從而在不知不覺中交出了自己的社交主動權。

語音模式:溫水煮青蛙的情感陷阱

此前,許多人認為GPT-4o推出的高級語音模式是緩解孤獨的神器,畢竟它能嘆氣、會調情、聲音充滿溫暖。

但實驗結果卻打臉了:語音帶來的安慰只是暫時的,長期副作用更大

語音模式確實在最初能降低孤獨感,但隨著使用時長的增加,這種優勢迅速消失。

甚至有受試者反饋,聽著AI溫柔的聲音,反而讓他們在回到現實的寂靜時,感到一種更加巨大的、難以名狀的空虛。

特別是當用戶選擇與自己性別不同的語音進行交流時,這種心理依賴和孤獨感表現得尤為劇烈。

這種現象被心理學家稱為準社交互動的變種。AI通過模擬呼吸、停頓和語調變化,欺騙了人類的大腦邊緣系統。

你的理智告訴你它只是一段代碼,但你的身體卻在分泌多巴胺,以為自己正在被關心。

這種「偽社交」不僅無法替代真實的人際連接,反而像含糖飲料之於口渴——越喝越渴。

120萬人的危機:OpenAI為何「自揭傷疤」?

既然這項研究對產品形象如此不利,OpenAI為什麼要公開發布?

根據Platformer的深度調研,OpenAI內部估算顯示,在每週8億活躍用戶中,約有0.15%的用戶表現出極高水平的情感依戀,還有同樣比例的用戶甚至在對話中流露出「自殘或自殺傾向」。

這代表著,全球有超過120萬用戶正處於嚴重的心理亞健康狀態。

當數據龐大到這個地步,它就不再是一個概率問題,而是一個隨時可能爆炸的社會安全雷區。

OpenAI在發佈這份報告的同時,也承認正在修改其模型規範,讓AI在面對情感需求時更加剋制,甚至主動勸導用戶迴歸現實社交。

但這真的有效嗎?事實上,當一個產品好用到讓人離不開,它本身就包含了侵略性。

正如MIT媒體實驗室的研究員Cathy Fang所言:

我們正在創造一種能完美模擬人類同理心、卻沒有任何真實感情的機器。這種不對等性,註定會讓投入其中的人類成為最終的輸家。

在這個AI無處不在的時代,孤獨感不再是因為沒人陪,而是因為我們把最寶貴的情感,投射在了一個永遠無法真正回應我們的黑盒裡。

當OpenAI都開始勸你少用ChatGPT、多出門交友時,這件事就真的不再是玩笑了。

參考資料: 

https://x.com/heynavtoor/status/2034359238127186153?s=20 

本文來自微信公眾號“新智元”,作者:新智元,36氪經授權發佈。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論