阿拉斯加在政策中使用虚假统计数据,人工智慧幻觉出了问题

avatar
AI News
11-06
本文为机器翻译
展示原文

人工智慧与政策制定的结合有时会产生不可预见的影响,正如最近在阿拉斯加所看到的那样。

据报道,阿拉斯加立法者使用人工智慧产生的不准确的引文来证明拟议的学校禁止使用手机政策的合理性,这是一个不寻常的事件。根据/The Alaska Beacon/ 报导,阿拉斯加教育和早期发展部 (DEED) 提出了一份政策草案,其中引用了根本不存在的学术研究。

当阿拉斯加州教育专员 Deena Bishop 使用生成式人工智慧起草手机政策时,就出现了这种情况。人工智慧制作的文件包含了既未经验证也不准确的所谓学术参考资料,但该文件并未揭露人工智慧在其准备过程中的使用情况。一些人工智慧产生的内容在接受审查之前就到达了阿拉斯加州教育和早期发展委员会,这可能会影响委员会的讨论。

毕晓普委员后来声称,人工智慧仅用于为初稿“创建引文”,并声称她在会议之前通过向董事会成员发送更新的引文来纠正错误。然而,人工智慧的「幻觉」——人工智慧试图创建看似合理但未经验证的内容时产生的捏造讯息——仍然存在于董事会投票表决的最终文件中。

最终决议发布在 DEED 网站上,指示该部门制定学校限制使用手机的示范政策。不幸的是,该文件包含六处引用,其中四处似乎来自受人尊敬的科学期刊。然而,这些引用完全是编造的,其中的 URL 导致了不相关的内容。该事件表明,在未经适当人工验证的情况下使用人工智慧产生的数据存在风险,尤其是在制定政策裁决时。

阿拉斯加的案例并非独一无二。人工智慧幻觉在各个专业领域越来越普遍。例如,一些法律专业人士因在法庭上使用人工智慧产生的虚构案件引证而面临后果。同样,使用人工智慧创建的学术论文也包含扭曲的数据和虚假来源,带来了严重的可信度问题。如果不加以控制,生成式人工智慧演算法(旨在根据模式而不是事实准确性生成内容)很容易产生误导性引用。

在决策中,特别是在教育中,对人工智慧产生的数据的依赖带来了巨大的风险。当基于捏造资讯制定政策时,可能会错误分配资源并可能伤害学生。例如,基于捏造的数据限制手机使用的政策可能会转移人们对更有效、基于证据的干预措施的注意力,而这些干预措施可以真正使学生受益。

此外,使用未经验证的人工智慧数据可能会削弱公众对政策制定过程和人工智慧技术本身的信任。此类事件凸显了在敏感决策领域使用人工智慧时事实查核、透明度和谨慎的重要性,特别是在教育领域,这对学生的影响可能是深远的。

阿拉斯加官员试图淡化这种情况,将捏造的引文称为“占位符”,以便稍后纠正。然而,带有「占位符」的文件仍然被提交给董事会并用作投票的基础,强调使用人工智慧时需要严格监督。

哈托诺创意工作室摄)

另请参阅: Anthropic 敦促人工智慧监管以避免灾难

想向产业领导者了解更多关于人工智慧和大数据的知识吗?查看在阿姆斯特丹、加州和伦敦举办的人工智慧与大数据博览会。该综合活动与智慧自动化大会BlockX数位转型周以及网路安全与云端博览会等其他领先活动同期举行。

在此探索由 TechForge 提供支援的其他即将举行的企业技术活动和网路研讨会。

由于阿拉斯加在政策中使用虚假统计数据,人工智慧幻觉出了问题,这一消息首先出现在《人工智慧新闻》上。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论