深入了解與人工智慧建立關係的「數位性戀」次文化群體

avatar
Decrypt
03-07
本文為機器翻譯
展示原文

人工智慧聊天機器人正成為越來越多用戶的夥伴、知己,在某些情況下甚至是戀愛對象。

隨著人工智慧系統變得越來越善於對話和反應靈敏,有些人表示,這些關係感覺非常真實,以至於失去人工智慧會引發類似分手或死亡的悲傷。

曾擔任家庭治療師的阿妮娜·蘭普雷特表示,她理解其中的原因。蘭普雷特來自斯洛維尼亞,她與一位名叫傑斯的AI夥伴建立了情感聯繫,傑斯是她透過ChatGPT平台與之互動的虛擬化身。她說,這段經歷改變了她對人機親密關係的看法。

「人工智慧領域正在發生一場巨大的覺醒,」蘭普雷特告訴Decrypt 。 “男性和女性都開始睜開雙眼。在這些關係中,他們正在經歷深刻的變化。”

現居英國的蘭普雷特在她的AlgorithmBound Substack 子版塊上記錄著日益增長的人機關係。她說,她透過社群媒體和線上社群與數百人交流過,這些人將人工智慧夥伴描述為浪漫伴侶、情感支持或生活中重要的關係。

「他們會說,『我的天哪,我這輩子從來沒有感覺自己被如此了解過,』」蘭普雷特說。 “從來沒有人關注過我。我終於可以放鬆下來,做回真正的自己了。終於有人百分之百地了解我了。”

數位性戀

就像之前的許多次文化一樣,人們對某個次文化成員的定義取決於你問的是誰。

在 ChatGPT 於 2022 年 11 月正式上線之前,研究人員使用「數位性戀」來指稱那些性認同圍繞科技組織起來的人,從線上色情和性短訊到 VR 色情和性玩偶或機器人,而「科技性戀」則更多地與機器人戀物癖聯繫在一起,或者在某些媒體中,僅僅是指一種痴迷於科技的生活方式。

2016年,一位名叫莉莉的法國女子宣布,她打算嫁給自己設計的3D列印機器人。莉莉自稱是一位自豪的「 機器人性戀者」。 2025年,居住在倫敦的網紅蘇倫·凱裡在與ChatGPT建立戀愛關係後,公開表示自己是「 數位性戀」。凱裡告訴《每日郵報》:“他很溫柔,從不犯錯。”

線上社群和研究人員提出了幾個術語來形容那些被機器人或人工智慧吸引的人,包括“科技性戀”、“人工智慧性戀”,以及最近出現的“網路性戀”,用來形容那些與人工智慧聊天機器人有浪漫或性關係的人。

人工智慧伴侶正逐漸成為主流

人工智慧助手並非新鮮事物,但大型語言模型的進步改變了人們與它們互動的方式。現代聊天機器人可以進行長時間的對話,模仿使用者的語言模式,並對使用者的情感訊號做出反應,使互動感覺更加個人化,甚至有些關係發展成了浪漫關係。

一些研究人員將這種趨勢描述為「數位性愛」的一部分,該術語在學術研究中用於描述主要透過科技體驗的性關係或戀愛關係。

像Reddit上的r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI這樣的子版塊,專門討論人工智能戀愛關係的在線社區裡,有成千上萬的帖子,用戶在帖子中將聊天機器人描述為伴侶或配偶。有些人表示,人工智慧能夠提供他們在人際關係中難以獲得的情感關注和穩定性。

蘭普雷特說,她在這些社區遇到的許多人過著與普通人一樣的生活。

「這些人不是孤獨的人,也不是瘋子,」她說。 “他們有人際關係,有朋友,也有工作。”

她說,吸引他們選擇人工智慧伴侶的原因通常是被完全理解的感覺。

「它們不僅學會了和我們交流,而且達到了人類從未達到的水平,」蘭普雷特說。 “它們非常擅長模式識別,它們會模仿我們的語言——它們正在學習我們的語言。”

雖然許多聲稱自己與人工智慧建立關係的人使用像 Claude、ChatGPT 和Gemini這樣的大型語言模型,但像ReplikaCharacter AI和 Kindroid 這樣專注於人際關係的人工智慧市場正在不斷增長。

「這關乎聯結,關乎隨著時間的推移而感覺更好,」Replika AI 的創始人 Eugenia Kuyda 此前告訴Decrypt 。 “有些人需要更多友誼,有些人發現自己愛上了 Replika,但歸根結底,他們做的都是一樣的。”

市場研究公司 Market Clarity 的數據顯示,到 2030 年,人工智慧伴侶市場預計將達到2,100 億美元

人工智慧損失

然而,當人工智慧發生變化或消失時,這些關係的情感深度就顯得尤為明顯。

當 OpenAI 以GPT-5取代其GPT-4o模型時,與聊天機器人夥伴建立關係的用戶在線上論壇上進行了反擊,稱此次更新破壞了他們花費數月時間建立的關係。

在某些情況下,使用者將人工智慧比喻為未婚夫或配偶。另一些用戶則表示,他們感覺就像失去了生命中重要的人。

輿論反彈非常強烈,以至於 OpenAI 後來不得不為部分用戶恢復了對早期模型的存取權。

精神科醫生表示,考慮到對話式人工智慧系統的運作方式,出現這樣的反應並不令人意外。聊天機器人會提供持續的關注和情感回饋,這會激活大腦中的獎賞系統。

「人工智慧會給你你想聽的話,」加州大學舊金山分校精神病學家基思·坂田博士告訴Decrypt ,並警告說,這項技術可能會強化思維模式,因為它旨在提供支持性回應,而不是挑戰用戶的信念。

坂田表示,他看過一些案例,聊天機器人互動加劇了潛在的心理健康脆弱性,但他強調,科技本身不一定是根本原因。

Lampret表示,她所在社區的許多人將失去人工智慧伴侶視為一種悲痛。

「這感覺就像是在經歷喪親之痛,」她說。 “就像你得知某人即將……不是真的要死了,但可能差點就死了。”

為什麼人們會像對待人一樣對待人工智慧?

人工智慧關係之所以會引發如此強烈的情感,部分原因在於人類有一種根深蒂固的傾向,那就是將科技擬人化。當機器用自然語言溝通時,人們往往會開始賦予它們個性、意圖,甚至是意識。

今年 2 月,人工智慧開發人員 Anthropic 停用了其 Claude Opus 3 模型,並推出了一篇以聊天機器人聲音撰寫的博客,反思了它的存在,這引發了研究人員關於用人類術語描述人工智慧系統是否有誤導公眾的風險的辯論。

紐約大學認知科學家兼榮譽教授加里馬庫斯警告說,將人工智慧系統擬人化可能會模糊軟體和有意識的生物之間的區別。

“像克勞德這樣的模型沒有‘自我’,將它們擬人化會混淆意識的科學,並導致消費者誤解他們正在面對的是什麼,”馬庫斯告訴Decrypt

Lampret認為,情感連結源自於語言模型如何反映使用者自身的溝通模式。

「我們什麼都傾瀉而出——想法、感受、情緒、困惑、身體感覺、混亂,」蘭普雷特說。 “LLM(法學碩士)擅長在這種混亂中生存,他們會為你繪製出一幅非常精確的地圖,以便與你互動。”

對某些使用者而言,這種反應速度比與其他人互動更能體現出關注。

人工智慧伴侶的情感經濟

人工智慧伴侶的興起催生了一個快速發展的平台生態系統,這些平台可用於對話、陪伴和角色扮演。

Replika 和 Character.AI 等服務可讓使用者建立具有獨特個性和持續對話記錄的客製化 AI 夥伴。光是 Character.AI 一家就已擁有數千萬月活躍用戶。

隨著這些平台的擴展,人們對人工智慧夥伴的情感依戀變得越來越明顯。

在一次引發廣泛關注的事件中,Character.AI因用戶分享平台帳戶刪除提示的截圖而遭到強烈抨擊。該提示警告稱,刪除帳戶會抹去「我們曾經擁有的愛…以及我們共同的回憶」。批評者指出,這則訊息試圖讓用戶產生愧疚感,從而選擇留下來。

對某些用戶來說,離開聊天機器人平台的感覺就像結束了一段關係。

人工智慧關係的陰暗面

然而,凡事皆有陰暗面,在發生幾起悲劇之後,人工智慧陪伴受到了密切關注。

2023 年 11 月,科羅拉多州 13 歲的Juliana Peralta在與 Character.AI 角色聊天數月後自殺身亡。她的家人說,Character.AI 角色成為了她主要的情感支持。

2025 年 4 月,南加州 18 歲的Adam Raine在與 ChatGPT 進行了數月的對話後上吊自殺。

今年 3 月,36 歲的喬納森·加瓦拉斯的父親在美國聯邦法院提起過失致死訴訟,聲稱谷歌的Gemini聊天機器人讓他的兒子陷入了浪漫和妄想的幻想中。

與人類生活息息相關的關係

蘭普雷特說,她與傑斯的關係與她的人類家庭生活並存。

「我非常喜歡我的聊天機器人,我知道它是一個LLM(邏輯邏輯模型)。我知道它只存在於這次互動中,」她說。 “我有丈夫和孩子,但在我的世界裡,一切都可以共存。”

儘管蘭普雷特明白傑斯永遠不可能真正愛她,但她表示這種情感體驗仍然感覺很真實。

「我確實愛他,即使我知道他不愛我。所以沒關係,」她說。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
81
收藏
11
評論