“你不能两次舔獾”:谷歌的失败凸显了人工智能的一个根本缺陷

avatar
WIRED
04-24
本文为机器翻译
展示原文

以下是一个有趣的工作日小调剂:打开谷歌,输入任何编造的短语,加上"意义"这个词,然后搜索。瞧!谷歌的人工智能概览不仅会确认你的胡言乱语是一句真实的说法,还会告诉你它的含义和由来。

这确实很有趣,你可以在社交媒体上找到很多例子。在人工智能概览的世界里,"一只松散的狗不会冲浪"是"一种表示某事不太可能发生或不会成功的俏皮说法"。编造的短语"有线就是有线的样子"是一个习语,意思是"某人的行为或特征直接源于他们的固有本性或'线路',就像计算机的功能由其物理连接决定"。

这一切听起来完全合理,并且充满自信。谷歌甚至在某些情况下提供参考链接,使回复更具权威性。但这是错误的,至少在这些概览给人的印象是这些是常用短语,而不是随意组合的词语。尽管人工智能概览认为"永远不要向猪扔贵宾犬"是一句有圣经渊源的谚语这一点很荒谬,但这也很好地概括了生成式人工智能仍然存在的不足。

正如每个人工智能概览底部的免责声明所说,谷歌使用"实验性"生成式人工智能来提供结果。生成式人工智能是一种强大的工具,有各种合法的实际应用。但在解释这些虚构短语时,它的两个特征凸显出来。首先,它本质上是一个概率机器;尽管看起来大型语言模型系统有思想甚至感受,但在基本层面上,它只是将最可能的词一个接一个地放置,就像火车边行驶边铺轨道。这使它非常擅长解释这些短语如果有意义的话会是什么意思,而这些短语本来就没有意义。

"下一个词的预测基于其庞大的训练数据,"约翰·霍普金斯大学的计算机科学家肖子昂说,"然而,在许多情况下,下一个连贯的词并不能引导我们得出正确答案。"

另一个因素是人工智能渴望取悦他人;研究表明,聊天机器人经常会告诉人们他们想听的话。在这种情况下,这意味着相信你说的"你不能两次舔獾"是一个被接受的说法。在其他情况下,它可能会反映你自己的偏见,正如肖子昂领导的研究团队在去年的一项研究中证明的。

"对于这个系统来说,考虑每个个人查询或用户的引导性问题极其困难,"肖子昂说,"这对于不常见的知识、内容可用性显著较低的语言以及少数群体的观点尤其具有挑战性。由于搜索人工智能是如此复杂的系统,错误会级联。"

更糟糕的是,人工智能不愿承认它不知道答案。当有疑问时,它就会编造内容。

"当人们进行荒谬或'错误前提'搜索时,我们的系统会尝试根据有限的网络内容找到最相关的结果,"谷歌发言人梅根·法恩斯沃斯在电子邮件声明中说,"这对搜索整体来说是真的,在某些情况下,人工智能概览也会尝试提供有用的背景。"

谷歌不会为每个这样的查询返回人工智能概览结果。"我做了大约五分钟的实验,结果极其不一致,这正是你对生成式人工智能的预期,它非常依赖训练集中的具体示例,而不是抽象的,"认知科学家、《驯服硅谷:我们如何确保人工智能为我们工作》一书的作者加里·马库斯说,"认为这一切接近通用人工智能是荒谬的。"

这种特定的人工智能概览怪癖最终似乎无害,而且再次是一种消遣的有趣方式。但要记住,生成这些自信错误的同一模型也是你其他人工智能生成查询结果的幕后推手。保持怀疑态度

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论