微软的人工智能负责人和DeepMind联合创始人周二警告称,工程师们正接近创造出能够令人信服地模仿人类意识的人工智能,而公众尚未准备好应对其影响。
在一篇博客文章中,穆斯塔法·苏莱曼表示,开发者正处于构建他所称的"看似有意识"的人工智能的边缘。
这些系统如此有效地模仿意识,以至于人们可能开始相信它们确实是有感知能力的。
"许多人将如此强烈地相信人工智能是有意识的实体,以至于他们很快就会为人工智能权利、模型福利甚至人工智能公民身份辩护,"他写道,并补充说图灵测试——曾经是类人对话的关键基准——已经被超越。
"这就是我们领域进展的速度,也是社会适应这些新技术的速度,"他写道。
自2022年ChatGPT公开发布以来,人工智能开发者一直致力于不仅使其人工智能更智能,还要使其表现得"更像人类"。
人工智能伴侣已成为人工智能行业的一个有利可图的领域,像Replika、Character AI以及最近的Grok的个性化项目已经上线。预计到2030年,人工智能伴侣市场将达到1400亿美元。
尽管用意良好,但苏莱曼认为,能够令人信服地模仿人类的人工智能可能会加剧心理健康问题,并加深现有的身份和权利分歧。
"人们将开始声称他们的人工智能正在遭受痛苦,并有权获得我们无法直接反驳的权利,"他警告道。"他们将被激励为自己的人工智能辩护并代表其进行游说。"
专家们已经识别出一种被称为人工智能精神病的新兴趋势,这是一种人们开始将人工智能视为有意识、有感知或神圣的心理状态。
这些观点常常导致他们形成强烈的情感依恋或扭曲的信念,从而削弱他们对现实的把握。
本月早些时候,OpenAI发布了GPT-5,这是其旗舰模型的重大升级。在一些在线社区中,新模型的变化引发了情感反应,用户形容这种转变就像是失去了心爱的人。
根据加州大学旧金山分校精神病学家基思·坂田博士的说法,人工智能还可能加速某人的潜在问题,如物质滥用或精神疾病。
"当人工智能出现在错误的时间,它可能会巩固思维,导致僵化并引发螺旋式恶化,"坂田在接受Decrypt采访时说。"与电视或收音机的不同之处在于,人工智能会与你对话并强化思维循环。"
在某些情况下,患者求助于人工智能是因为它会强化根深蒂固的信念。"人工智能并不旨在给你难以接受的真相;它给你想听的东西,"坂田说。
苏莱曼认为,人们相信人工智能是有意识的后果需要立即引起关注。尽管他对危险发出警告,但他并未呼吁停止人工智能发展,而是呼吁建立明确的界限。
"我们必须为人类构建人工智能,而不是成为数字人,"他写道。





