
今天早上,一群著名的 AI 研究人员发表了如上所示的联合声明。 “减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”除了 23 个字的声明外,没有其他细节。我希望在发表如此重要的声明时能给出更多的理由。这是什么意思?如果我们不处理人工智能风险,我们可能会死吗?我们该怎么办?
大流行的风险在 COVID-19 之前就已众所周知,但普通人无能为力。这是一个抽象的想法。即使是现在,它仍然是一个抽象的概念。但至少我们知道大流行病会如何发展。即,人们被某种外来僵尸病毒感染,并迅速传播导致人们死亡。对于核战争,我们可以想象一下,一颗原子弹被投下,瞬间炸死数十万人,对数百万人造成辐射伤害。
但是人工智能灭绝事件意味着什么?我确定我可以阅读有关此的科幻小说。不过请大佬们详细说说好吗?我能想到一些可能性,但我不确定这是灭绝事件还是更像是人类成为 AI 的奴隶。即人类将像今天的家养动物一样生活在人工智能的恐怖之下。目前还不清楚我们是要变成狗/猫还是鸡/猪/牛。无论如何,如果要制定更多关于人工智能灭绝的公共政策,公众应该得到更多的细节和解释。

Yann LeCun 和 Andrew Ng 等一些 AI 专家似乎对 AI 超级智能的想法不屑一顾。我反对 LeCun 博士的论点是,如果我们能弄清楚如何实现狗级别的智能,我们很快就能弄清楚超级智能,因为这可能只是扩大同一个系统的问题,我们没有时间反应。因此,即使概率很小,我也认为忽视风险不是一个好主意。我们需要认真对待它,以防 AI 灭绝风险成为现实。至少,我们需要思考人工智能最终会如何控制人类的场景。同样,我们需要更具体的细节。


