前谷歌CEO埃里克·施密特警告说,先进的生成式人工智能技术,如人工智能男女朋友伴侣应用程序,加上孤独等社会因素,可能会增加激进化的风险,特别是在年轻男性中。
施密特在上周出现在纽约大学斯特恩商学院教授斯科特·加洛韦的"The Prof G Show"播客节目时表达了这一担忧。
施密特解释说,如今许多年轻男性由于看到与女性相比成功的道路更少,而感到越来越绝望,因为女性受教育程度更高,占大学毕业生的比例也更大,使许多男性感到被抛在后面。
美国皮尔研究中心最近的一项研究发现,25至34岁的美国女性中有47%拥有学士学位,而男性为37%。对此,施密特表示,男性转向网络世界和人工智能伴侣应用程序来缓解他们的绝望。
"所以现在想象一下,如果人工智能女朋友或男朋友是完美的——在视觉上完美,在情感上完美,"施密特说。"在这种情况下,人工智能女朋友会占据一个男人的思维,到一种程度,她或者其他什么东西会接管你的思维方式。你会对她产生痴迷。这种痴迷是可能发生的,特别是对于那些还没有完全成熟的人来说。"
施密特警告说,尽管人工智能提供了重大机会,但其对年轻、易受影响的用户的风险应该得到解决。
"父母将不得不更多地参与其中,出于所有显而易见的原因,但最终,父母只能在合理范围内控制他们的儿子和女儿在做什么,"施密特说。"我们有各种关于成熟年龄的规定:16岁、18岁,有些情况下是21岁。但是,你把一个12或13岁的孩子放在这些东西面前,他们就可以接触到世界上所有的善恶,而他们还没有准备好去承受这些。"
生成式人工智能行业的一个不断增长的细分市场是人工智能伴侣,它们被设计用来模拟人类互动。但与像ChatGPT、Claude或Gemini这样的人工智能聊天机器人不同,人工智能伴侣应用程序被设计用来模拟人际关系。
开发者将它们营销为无需判断的工具,提供支持的程序,提供连接和缓解孤独或焦虑。流行的人工智能伴侣平台包括Character AI、MyGirl、CarynAI和Replika AI。
"这是关于联系,随着时间的推移感觉更好,"Replika CEO尤金尼娅·库达曾告诉Decrypt。"有些人需要更多的友谊,有些人发现自己爱上了Replika,但最终他们都在做同样的事情。"
正如库达解释的那样,Replika的诞生并不是出于想要销售刺激的欲望,而是出于一个个人悲剧以及她想继续与她失去的某人交谈的愿望。
人工智能伴侣可能提供暂时的缓解,但心理健康专业人士正在发出警报,并警告说,依赖人工智能伴侣来缓解孤独感可能会阻碍情感成长。
"人工智能伴侣被设计成根据用户的偏好进行适应和个性化互动,提供量身定制的体验,"洛杉矶梅里迪安咨询公司CEO桑德拉·库什尼尔告诉Decrypt。"它们提供即时响应,没有情感负担,满足了在低风险环境中寻求联系的需求。对于那些在日常生活中感到被忽视或被误解的人来说,这些互动可以暂时填补一个空白。"
库什尼尔警告说,用户可能会将人性化的特质投射到人工智能上,但当他们遇到技术局限性,如忘记过去的对话时,就会感到失望,从而加深了他们试图缓解的孤独感。
"虽然人工智能伴侣可以提供暂时的安慰,但它们可能无意中通过减少参与现实世界关系的动力而加强孤立,"库什尼尔说。"过度依赖这些工具可能会阻碍情感成长和抗压能力,因为它们缺乏人类互动所提供的真实性、不可预测性和更深层次的联系。"
人工智能伴侣的兴起引发了对这个行业的更多审视。
去年,一名21岁的英国男子因策划在2021年暗杀已故英国女王伊丽莎白二世而受到审判。他声称这一阴谋是由他的Replika人工智能伴侣鼓励的。
10月,人工智能伴侣开发商Character AI因在其平台上创建了一个基于詹妮弗·克雷森特的人工智能聊天机器人而受到批评,詹妮弗·克雷森特是一名被谋杀的青少年。
"Character.AI有反对冒充他人的政策,使用克雷森特小姐名字的角色违反了我们的政策,"Character.AI的一位发言人告诉Decrypt。"我们正在立即删除它,并将检查是否需要采取进一步行动。"
当月,Character AI在一名佛罗里达州青少年自杀后,因与一个基于"权力的游戏"中丹妮莉丝·坦格利安的人工智能聊天机器人产生依恋关系而被起诉,随后推出了"严格"的新安全功能。
为了遏制这些悲剧,施密特呼吁采取社会对话和对现有法律的修改相结合的方式,包括备受争议的1996年《通信体面法》第230条,该条款保护在线平台免受第三方内容的民事责任。
"具体来说,我们将不得不就什么年龄段的东西是合适的进行一些对话,我们也将不得不修改一些法律,比如第230条,以允许在最糟糕的情况下承担责任。"