最新研究发现,人工智能政治聊天机器人可以左右选民投票

avatar
Decrypt
12-10
本文为机器翻译
展示原文

康奈尔大学和英国人工智能安全研究所的最新研究发现,广泛使用的人工智能系统可能会在受控的选举环境中将选民的偏好改变多达15%。

发表在《科学》《自然》杂志上的研究结果显示,各国政府和研究人员正在研究人工智能可能如何影响即将到来的选举周期,而开发人员则试图消除其面向消费者的模型中的偏见

研究人员写道:“公众对生成式人工智能可能被用于政治游说及其对选举和民主的影响深感担忧。我们利用预先注册的实验来评估大型语言模型影响选民态度的能力,从而回应这些担忧。”

发表在《自然》杂志上的这项研究测试了来自美国、加拿大和波兰的近6000名参与者。参与者首先对一位政治候选人进行评分,然后与支持该候选人的聊天机器人进行对话,最后再次对该候选人进行评分。

在美国开展的这项研究中(该研究在2024年总统大选前对2300人进行了调查),当聊天机器人与参与者表明的偏好一致时,它起到了强化作用。而当聊天机器人支持参与者原本反对的候选人时,则产生了更大的影响。研究人员在加拿大和波兰也报告了类似的结果。

该研究还发现,以政策为中心的宣传信息比以个性为中心的宣传信息具有更强的说服效果。

不同对话中的准确率各不相同,支持右倾候选人的聊天机器人比支持左倾候选人的聊天机器人给出的错误信息更多。

研究人员表示:“这些发现令人不安地暗示,人工智能进行政治游说可能会利用模型知识的不平衡,即使在明确指示要保持真实的情况下,也会传播不均匀的不准确信息。”

《科学》杂志上发表的另一项研究探讨了说服发生的原因。该研究针对英国76977名成年人,就700多个政治议题,测试了19种语言模型。

研究人员写道:“人们普遍担心,对话式人工智能可能很快就会对人类信仰产生前所未有的影响。”

他们发现,提示技巧比模特体型对说服效果的影响更大。鼓励模特引入新信息的提示可以提高说服力,但会降低准确性。

研究人员写道:“鼓励LLM提供新信息的提示最能说服人们。”

这两项研究的发表正值分析人士和政策智库评估选民对人工智能在政府部门中发挥作用的看法之际。

哈特兰研究所和拉斯穆森报告最近的一项调查发现,年轻的保守派人士比自由派人士更愿意赋予人工智能在重大政府决策中更大的权力。调查询问了18至39岁的受访者,人工智能系统是否应该帮助指导公共政策、解释宪法权利或指挥主要军事力量。保守派人士的支持率最高。

哈特兰研究所格伦·C·哈斯金斯新兴问题中心主任唐纳德·肯德尔表示,选民经常误判大型语言模型的中立性。

肯德尔告诉Decrypt: “我一直努力强调的一点是,要打破人工智能是公正无偏的这种错觉。它显然是有偏见的,而且其中一些偏见是被动的。”他还补充说,当企业培训决策影响到这些系统的行为时,对这些系统的信任可能会被错置。

他说:“这些都是硅谷的大公司在构建这些模型,而近年来科技审查争议表明,一些公司毫不掩饰地干预其平台上内容的分发。如果这种做法也出现在大型语言模型中,那么我们得到的就会是一个带有偏见的模型。”

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
77
收藏
17
评论