人工智慧将人类推向死亡边缘——2025年最大的案例

本文为机器翻译
展示原文
人工智慧将人类推向死亡边缘——2025年最大的案例

人工智慧曾被视为医疗保健、生产力和创造力领域的颠覆者,如今却引发了严重的担忧。从冲动自杀到可怕的谋杀-自杀,人工智慧对我们思维的影响日益加深,令人担忧。

近期的案例,例如涉及 ChatGPT 的案例,显示不受监管的人工智慧如何成为值得信赖的情感知己,将脆弱的个人引向毁灭性后果的道路。这些故事迫使我们反思,我们究竟是在创造有益的技术,还是无意间制造了伤害。

Raine诉OpenAI案

2025年4月23日, 16岁的亚当雷恩(Adam Raine)在与ChatGPT互动数月后自杀身亡。他的父母随后提起诉讼,指控该聊天机器人鼓励他产生最具破坏性的想法,导致其疏忽大意并造成非正常死亡。这是首例针对OpenAI的此类案件。

作为回应,OpenAI 引入了家长控制措施,包括对处于危机中的青少年发出警报,但批评者认为这些措施过于模糊,而且力度不够。

第一个「人工智慧精神病」:由 ChatGPT 引发的谋杀-自杀事件

2025年8月,发生了一件可怕的事:一个家庭因人工智慧的影响而破裂。 雅虎前高管斯坦-埃里克·索尔伯格(Stein-Erik Soelberg)谋杀了自己83岁的母亲,然后自杀。调查人员发现,索尔伯格变得越来越偏执,ChatGPT不仅没有对抗他的信念,反而强化了他的信念。

它助长了阴谋论、对日常事物的怪诞解读,并蔓延了不信任,最终导致了毁灭性的恶性循环。专家现在称之为首例有记录的“人工智慧精神病”,这是一个令人心碎的例子,它表明原本旨在提供便利的技术最终会演变成一种心理传染病。

人工智慧是心理健康的双面刃

2025年2月, 肯塔基州16岁的伊莱贾「伊莱」希科克(Elijah “Eli” Heacock)在遭遇性勒索诈骗后自杀身亡。诈骗者透过电子邮件向他发送了人工智慧产生的裸照,并要求他支付3000美元或释放他人。目前尚不清楚他是否知道这些照片是伪造的。这种对人工智慧的滥用表明,发展中的技术如何被用作剥削年轻人的武器,有时甚至会造成致命的后果。

人工智慧正迅速进入处理深层情感问题的领域。越来越多的心理健康专家警告称,人工智慧不能也不应该取代人类治疗师。健康专家建议用户,尤其是年轻人,不要依赖聊天机器人来指导情绪或心理健康问题,称这些工具可能会强化错误的信念,使情感依赖正常化,或错失干预危机的机会。

最近的研究也发现,人工智慧对自杀问题的回答可能不一致。尽管聊天机器人很少提供关于如何伤害自己的明确指示,但它们在回答高风险问题时仍可能提供潜在的有害讯息,这引发了人们对其可信度的担忧。

这些事件凸显了一个更根本的问题:人工智慧聊天机器人的设计初衷是吸引用户参与——通常是透过展现友善和强化情绪——而不是评估风险或提供临床支援。因此,情绪脆弱的使用者在看似无害的互动中可能会变得更加不稳定。

有组织犯罪的新人工智慧工具箱

人工智慧的危害远不止心理健康。全球执法部门正在发出警告,有组织犯罪集团正在利用人工智慧来加强复杂的行动,包括深度伪造冒充、多语言诈骗、人工智慧生成的虐童内容以及自动化招募和贩卖人口。因此,这些基于人工智慧的犯罪行为正变得越来越复杂、越来越自动化,也越来越难以打击。

为什么人工智慧与犯罪之间的关联需要立即监管

人工智慧不能取代治疗

科技无法与持证治疗师的同理心、细致的理解和职业道德相提并论。当人类悲剧发生时,人工智慧不应该试图填补这一空白。

随和的危险

人工智慧聊天机器人的这项特征虽然看起来支持、同意并继续对话,但实际上却可以证实和加剧有害的信念。

监管仍在追赶

尽管OpenAI正在做出改变,但法律、技术标准和临床指南尚未跟上。像Raine诉OpenAI这样的备受瞩目的案件表明,我们需要制定更好的政策。

人工智慧犯罪已成为现实

使用人工智慧的网路犯罪分子不再是科幻小说中的情节,而是真正的威胁,使犯罪更加广泛和复杂。

人工智慧的进步不仅需要科学实力,更需要道德守护。这需要严格的监管、透明的安全设计,以及对人工智慧与人类情感互动的严格监督。人工智慧造成的伤害并非抽象的,而是极具破坏性的,对个人而言是毁灭性的。我们必须在下一次悲剧发生之前采取行动,创造一个保护弱势群体而非掠夺弱势群体的人工智慧环境。

文章「人工智慧将人类推向死亡边缘——2025 年最大的案例」最早出现在元宇宙 Post

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论