研究人员警告:人工智能“集群”可能加剧网络虚假信息和操纵行为

本文为机器翻译
展示原文

根据周四发表在《科学》杂志上的一份新报告,易于检测的僵尸网络时代即将结束。该研究警告称,虚假信息传播活动正转向能够模仿人类行为、实时适应环境且几乎无需人工干预的自主人工智能集群,这使得检测和阻止此类活动变得更加复杂。

这篇由包括牛津大学、剑桥大学、加州大学伯克利分校、纽约大学和马克斯·普朗克研究所等机构的研究人员组成的联合研究团队撰写的论文,描述了一种数字环境,在这种环境中,操纵行为越来越难以识别。与以往与选举或政治相关的短暂行动不同,这些人工智能活动能够持续更长时间地维持某种叙事。

研究人员写道:“如果这些工具落入政府手中,可能会压制异议或巩固当权者的权力。因此,只有在严格、透明且民主问责的框架下,才能考虑部署防御性人工智能。”

群体智能体是指一群自主运行的人工智能代理,它们协同工作,比单个系统更高效地解决问题或完成目标。研究人员表示,人工智能群体智能体利用了社交媒体平台现有的弱点,在这些平台上,用户往往无法接触到不同的观点。

他们写道:“事实证明,虚假新闻的传播速度和范围都比真实新闻更快、更广,加剧了现实的碎片化,并侵蚀了共同的事实基础。最近的证据表明,以用户参与度为导向的内容推送与社会极化有关,平台算法甚至不惜牺牲用户满意度来放大分裂性内容,进一步损害了公共领域。”

南加州大学计算机科学教授、Sahara AI 首席执行官 Sean Ren表示,这种转变已经在主要平台上显现出来,人工智能驱动的账户越来越难以与普通用户区分开来。

“我认为更严格的KYC(了解你的客户)或账户身份验证机制会有很大帮助,”Ren告诉Decrypt 。“如果创建新账户更难,监控垃圾邮件发送者更容易,那么代理人就更难利用大量账户进行协同操纵。”

早期的舆论战主要依赖规模而非技巧,成千上万个账号同时发布相同的信息,这使得检测相对容易。相比之下,该研究指出,人工智能群体展现出“前所未有的自主性、协调性和规模”。

Ren表示,单靠内容审核不太可能阻止这些系统。他认为,问题在于平台如何大规模管理身份。他指出,更严格的身份验证和账户创建限制,即使单个帖子看起来像是真人发布,也能更容易地检测到协同行为。

他说:“如果代理人只能使用少量账户发布内容,那么就更容易发现可疑的使用情况并封禁这些账户。”

研究人员得出结论,这个问题没有单一的解决方案,潜在的选择包括改进对统计异常协调的检测和提高自动化活动的透明度,但他们表示,仅靠技术措施不太可能足够。

Ren表示,即使平台引入了新的技术保障措施,经济利益仍然是协同操纵攻击的一个持续驱动因素。

他表示:“这些代理群通常由一些团队或供应商控制,他们会从外部机构或公司获得金钱报酬,从而进行协同操纵。平台应该加强KYC(了解你的客户)和垃圾邮件检测机制,以识别和过滤掉被代理操纵的账户。”

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
79
收藏
19
评论