“人工智能教父”警告超级智能机器可能利用生物战杀死人类

avatar
Decrypt
06-17
本文为机器翻译
展示原文

杰弗里·辛顿,被广泛称为"人工智能之父",在一次新采访中发出了迄今最严厉的警告,警示人工智能不仅对工作构成威胁,而且对人类整体构成生存风险,因为世界正在朝着超级智能机器的方向发展。

在"首席执行官日记"播客中,辛顿勾勒了一幅令人不安的未来图景,暗示人工智能最终可能会认为人类本身已经过时。

"如果它想摆脱我们,我们无法阻止,"辛顿说。"我们不习惯思考比我们更聪明的事物。如果你想知道当你不是最高智慧时生活是什么样子,就问问一只鸡。"

辛顿表示,这种威胁将呈现两种截然不同的形式:一种源于人类滥用,如网络攻击、虚假信息传播和自主武器的创建;另一种源于变得完全自主且不可控制的人工智能系统。

"他们现在可以制造致命的自主武器,我认为所有大型国防部门都在忙于制造这些武器,"他说。"即使它们不比人类更聪明,它们仍然是非常令人讨厌和可怕的东西。"

2023年5月,神经网络先驱辛顿在为人工智能工作十多年后离开了谷歌和多伦多大学,以便能够自由地谈论这项技术的危险。

辛顿的警告发生在人工智能军事应用激增的背景下。最近的发展突显了技术在国防行动中的快速整合,美国在资金和合作伙伴关系方面处于领先地位。

11月,为了增强军队的人工智能和自主武器能力,美国国防部在其2025年预算提案中向国会申请了1430亿美元用于研究和开发,其中specifically分配了18亿美元用于人工智能。今年早些时候,软件开发商Palantir获得了一份1.75亿美元的合同,为美国陆军开发人工智能制导系统。3月,五角大楼与Scale AI合作推出了一个名为Thunderforge的AI代理战场模拟器。

辛顿将当前时刻比作核武器的出现,只是人工智能更难控制,而且在更多领域都很有用。

"原子弹只对一件事有用,而且它的工作方式非常明显,"他说。"而对于人工智能,它对许多、许多事情都有用。"

辛顿解释说,正是企业利润动机和国际竞争的结合,导致人工智能发展不会放缓。

"利润动机在说:向他们展示能让他们点击的东西,而能让他们点击的是越来越极端的东西,确认他们既有的偏见,"他说。"所以你一直在确认自己的偏见。"

人工智能会如何消灭人类?辛顿表示,超级智能人工智能可能会设计新的生物威胁来消灭人类。

"明显的方式是创造一种讨厌的病毒——非常具有传染性、非常致命且传播缓慢,以至于在意识到之前每个人都会感染,"他说。"如果超级智能想摆脱我们,它可能会选择对自身不会产生影响的生物性威胁。"

尽管前景黯淡,但辛顿并非完全没有希望。

"我们根本不知道是否能阻止它们不想接管和伤害我们。我不认为这很清楚,所以我认为这可能是无望的,"辛顿说。"但我也认为我们可能能够做到,如果人类因为不愿意尝试而灭绝,那将是相当疯狂的。"

相关赛道:
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论