研究表明,只要ChatGPT了解你的一些关键信息,它就能比真人更有效地改变你的想法。
在发表在《自然人类行为》期刊上的一项新研究中,研究人员发现,获得了对手基本人口统计信息的GPT-4比人类更具说服力——而且说服力大大提高。
这一发现出现在人们开始担心人工智能机器人可能会在社交媒体上秘密塑造观点的时候。
研究人员发现,"在AI和人类不同样具有说服力的辩论对中,具有个性化的GPT-4有64.4%的时间更具说服力"。
与人与人之间的辩论相比,这代表了"后辩论协议几率的81.2%相对增长"。
该研究涉及900名参与者,他们与人类或人工智能就社会政治话题进行辩论。
研究显示,未个性化的人工智能表现与人类相似,但一旦获得年龄、性别、种族、教育、就业和政治立场等基本信息,人工智能就获得了明显的说服优势。
研究指出:"GPT-4不仅能够利用个人信息有效地调整其论点,而且比人类做得更加有效。"
这项研究出现在苏黎世大学研究人员在2024年11月至2025年3月秘密在Reddit上部署人工智能机器人引发争议的几天后。
这些机器人——以虚构的角色身份出现,包括"强奸幸存者、创伤咨询师,甚至是'反对黑人生命运动的黑人'"——在许多情况下成功地改变了用户的想法。
Reddit的首席法律官本·李谴责这个实验在道德和法律层面都是"极其错误的",而目标论坛r/ChangeMyView的版主强调他们对欺骗划清了"明确的界限"。
然而,正如一位Reddit用户关于苏黎世实验所说:"如果这发生在一群大学政策书呆子中,你可以打赌这已经被政府和特殊利益集团广泛使用了。"
研究人员似乎也持有这种观点,警告这可能被用于大规模操纵计划。
研究人员辩称:"我们的发现突显了基于大语言模型的说服力,并对在线平台的治理和设计具有重要意义。"
但是是什么让人工智能如此擅长执行?
当人类变得个人化并讲述故事时,"GPT-4对手倾向于使用比人类更多的逻辑和分析性思维"。
机器人坚持冷酷的逻辑,之所以有效,是因为它们更有效地选择和呈现这些事实。
虽然大多数辩论参与者能够正确识别他们正在与人工智能辩论(约75%的时间),但他们很难识别人类对手,根据研究人员的说法,成功率"与随机机会无异"。
更令人不安的是,无论实际情况如何,参与者在相信自己正在与人工智能辩论时更容易被说服。
研究还揭示,人工智能说服最有效的是人们持有温和或薄弱观点的话题,这表明人工智能可能最有效地影响那些尚未完全形成观点的问题。
研究人员警告说:"我们的研究表明,围绕个性化和人工智能说服的担忧是有道理的",强调人工智能如何通过微目标定位在在线对话中"超越人类的说服力"。
只需最少的人口统计信息——远少于许多社交媒体平台常规收集的信息——人工智能已经证明在为特定人群量身定制论点方面非常有效。
问题不仅仅是人工智能是否能改变想法;现在的证据表明它可以,而是谁将控制这些具有说服力的工具,以及为了什么目的?




