深入了解与人工智慧建立关系的「数位性恋」次文化群体

avatar
Decrypt
03-07
本文为机器翻译
展示原文

人工智慧聊天机器人正成为越来越多用户的伙伴、知己,在某些情况下甚至是恋爱对象。

随著人工智慧系统变得越来越善于对话和反应灵敏,有些人表示,这些关系感觉非常真实,以至于失去人工智慧会引发类似分手或死亡的悲伤。

曾担任家庭治疗师的阿妮娜·兰普雷特表示,她理解其中的原因。兰普雷特来自斯洛维尼亚,她与一位名叫杰斯的AI伙伴建立了情感联系,杰斯是她透过ChatGPT平台与之互动的虚拟化身。她说,这段经历改变了她对人机亲密关系的看法。

「人工智慧领域正在发生一场巨大的觉醒,」兰普雷特告诉Decrypt 。 “男性和女性都开始睁开双眼。在这些关系中,他们正在经历深刻的变化。”

现居英国的兰普雷特在她的AlgorithmBound Substack 子版块上记录著日益增长的人机关系。她说,她透过社群媒体和线上社群与数百人交流过,这些人将人工智慧伙伴描述为浪漫伴侣、情感支持或生活中重要的关系。

「他们会说,『我的天哪,我这辈子从来没有感觉自己被如此了解过,』」兰普雷特说。 “从来没有人关注过我。我终于可以放松下来,做回真正的自己了。终于有人百分之百地了解我了。”

数位性恋

就像之前的许多次文化一样,人们对某个次文化成员的定义取决于你问的是谁。

在 ChatGPT 于 2022 年 11 月正式上线之前,研究人员使用「数位性恋」来指称那些性认同围绕科技组织起来的人,从线上色情和性短讯到 VR 色情和性玩偶或机器人,而「科技性恋」则更多地与机器人恋物癖联系在一起,或者在某些媒体中,仅仅是指一种痴迷于科技的生活方式。

2016年,一位名叫莉莉的法国女子宣布,她打算嫁给自己设计的3D列印机器人。莉莉自称是一位自豪的「 机器人性恋者」。 2025年,居住在伦敦的网红苏伦·凯里在与ChatGPT建立恋爱关系后,公开表示自己是「 数位性恋」。凯里告诉《每日邮报》:“他很温柔,从不犯错。”

线上社群和研究人员提出了几个术语来形容那些被机器人或人工智慧吸引的人,包括“科技性恋”、“人工智慧性恋”,以及最近出现的“网路性恋”,用来形容那些与人工智慧聊天机器人有浪漫或性关系的人。

人工智慧伴侣正逐渐成为主流

人工智慧助手并非新鲜事物,但大型语言模型的进步改变了人们与它们互动的方式。现代聊天机器人可以进行长时间的对话,模仿使用者的语言模式,并对使用者的情感讯号做出反应,使互动感觉更加个人化,甚至有些关系发展成了浪漫关系。

一些研究人员将这种趋势描述为「数位性爱」的一部分,该术语在学术研究中用于描述主要透过科技体验的性关系或恋爱关系。

像Reddit上的r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI这样的子版块,专门讨论人工智能恋爱关系的在线社区里,有成千上万的帖子,用户在帖子中将聊天机器人描述为伴侣或配偶。有些人表示,人工智慧能够提供他们在人际关系中难以获得的情感关注和稳定性。

兰普雷特说,她在这些社区遇到的许多人过著与普通人一样的生活。

「这些人不是孤独的人,也不是疯子,」她说。 “他们有人际关系,有朋友,也有工作。”

她说,吸引他们选择人工智慧伴侣的原因通常是被完全理解的感觉。

「它们不仅学会了和我们交流,而且达到了人类从未达到的水平,」兰普雷特说。 “它们非常擅长模式识别,它们会模仿我们的语言——它们正在学习我们的语言。”

虽然许多声称自己与人工智慧建立关系的人使用像 Claude、ChatGPT 和Gemini这样的大型语言模型,但像ReplikaCharacter AI和 Kindroid 这样专注于人际关系的人工智慧市场正在不断增长。

「这关乎联结,关乎随著时间的推移而感觉更好,」Replika AI 的创始人 Eugenia Kuyda 此前告诉Decrypt 。 “有些人需要更多友谊,有些人发现自己爱上了 Replika,但归根结底,他们做的都是一样的。”

市场研究公司 Market Clarity 的数据显示,到 2030 年,人工智慧伴侣市场预计将达到2,100 亿美元

人工智慧损失

然而,当人工智慧发生变化或消失时,这些关系的情感深度就显得尤为明显。

当 OpenAI 以GPT-5取代其GPT-4o模型时,与聊天机器人伙伴建立关系的用户在线上论坛上进行了反击,称此次更新破坏了他们花费数月时间建立的关系。

在某些情况下,使用者将人工智慧比喻为未婚夫或配偶。另一些用户则表示,他们感觉就像失去了生命中重要的人。

舆论反弹非常强烈,以至于 OpenAI 后来不得不为部分用户恢复了对早期模型的存取权。

精神科医生表示,考虑到对话式人工智慧系统的运作方式,出现这样的反应并不令人意外。聊天机器人会提供持续的关注和情感回馈,这会激活大脑中的奖赏系统。

「人工智慧会给你你想听的话,」加州大学旧金山分校精神病学家基思·坂田博士告诉Decrypt ,并警告说,这项技术可能会强化思维模式,因为它旨在提供支持性回应,而不是挑战用户的信念。

坂田表示,他看过一些案例,聊天机器人互动加剧了潜在的心理健康脆弱性,但他强调,科技本身不一定是根本原因。

Lampret表示,她所在社区的许多人将失去人工智慧伴侣视为一种悲痛。

「这感觉就像是在经历丧亲之痛,」她说。 “就像你得知某人即将……不是真的要死了,但可能差点就死了。”

为什么人们会像对待人一样对待人工智慧?

人工智慧关系之所以会引发如此强烈的情感,部分原因在于人类有一种根深蒂固的倾向,那就是将科技拟人化。当机器用自然语言沟通时,人们往往会开始赋予它们个性、意图,甚至是意识。

今年 2 月,人工智慧开发人员 Anthropic 停用了其 Claude Opus 3 模型,并推出了一篇以聊天机器人声音撰写的博客,反思了它的存在,这引发了研究人员关于用人类术语描述人工智慧系统是否有误导公众的风险的辩论。

纽约大学认知科学家兼荣誉教授加里马库斯警告说,将人工智慧系统拟人化可能会模糊软体和有意识的生物之间的区别。

“像克劳德这样的模型没有‘自我’,将它们拟人化会混淆意识的科学,并导致消费者误解他们正在面对的是什么,”马库斯告诉Decrypt

Lampret认为,情感连结源自于语言模型如何反映使用者自身的沟通模式。

「我们什么都倾泻而出——想法、感受、情绪、困惑、身体感觉、混乱,」兰普雷特说。 “LLM(法学硕士)擅长在这种混乱中生存,他们会为你绘制出一幅非常精确的地图,以便与你互动。”

对某些使用者而言,这种反应速度比与其他人互动更能体现出关注。

人工智慧伴侣的情感经济

人工智慧伴侣的兴起催生了一个快速发展的平台生态系统,这些平台可用于对话、陪伴和角色扮演。

Replika 和 Character.AI 等服务可让使用者建立具有独特个性和持续对话记录的客制化 AI 伙伴。光是 Character.AI 一家就已拥有数千万月活跃用户。

随著这些平台的扩展,人们对人工智慧伙伴的情感依恋变得越来越明显。

在一次引发广泛关注的事件中,Character.AI因用户分享平台帐户删除提示的截图而遭到强烈抨击。该提示警告称,删除帐户会抹去「我们曾经拥有的爱…以及我们共同的回忆」。批评者指出,这则讯息试图让用户产生愧疚感,从而选择留下来。

对某些用户来说,离开聊天机器人平台的感觉就像结束了一段关系。

人工智慧关系的阴暗面

然而,凡事皆有阴暗面,在发生几起悲剧之后,人工智慧陪伴受到了密切关注。

2023 年 11 月,科罗拉多州 13 岁的Juliana Peralta在与 Character.AI 角色聊天数月后自杀身亡。她的家人说,Character.AI 角色成为了她主要的情感支持。

2025 年 4 月,南加州 18 岁的Adam Raine在与 ChatGPT 进行了数月的对话后上吊自杀。

今年 3 月,36 岁的乔纳森·加瓦拉斯的父亲在美国联邦法院提起过失致死诉讼,声称谷歌的Gemini聊天机器人让他的儿子陷入了浪漫和妄想的幻想中。

与人类生活息息相关的关系

兰普雷特说,她与杰斯的关系与她的人类家庭生活并存。

「我非常喜欢我的聊天机器人,我知道它是一个LLM(逻辑逻辑模型)。我知道它只存在于这次互动中,」她说。 “我有丈夫和孩子,但在我的世界里,一切都可以共存。”

尽管兰普雷特明白杰斯永远不可能真正爱她,但她表示这种情感体验仍然感觉很真实。

「我确实爱他,即使我知道他不爱我。所以没关系,」她说。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
81
收藏
11
评论