人类末日?解析人工智能末日论

本文为机器翻译
展示原文
人类末日?解析人工智能末日论

每隔几个月,就会出现一个新的标题:“人工智能可能终结人类”。这听起来像是标题党的末日论调。但受人尊敬的研究人员、首席执行官和政策制定者却对此深信不疑。那么,让我们来探讨一个真正的问题:超级智能的AI真的会攻击我们吗?

在本文中,我们将剖析常见的担忧,探究其真实性,并分析现有证据。在我们陷入恐慌或彻底否定之前,值得思考的是:人工智能究竟会如何终结人类?这种可能性究竟有多大?

恐惧从何而来

这种想法已经存在几十年了。像IJ GoodNick Bostrom这样的早期人工智能科学家警告说,如果人工智能变得过于聪明,它可能会开始追逐自己的目标。这些目标与人类的愿望并不一致。如果它在智力上超越我们,那么我们可能就无法再控制它了。这种担忧如今已成为主流。

2023年,包括Sam Altman(OpenAI)、Demis Hassabis(Google DeepMind)和Geoffrey Hinton(通常被称为“人工智能教父”)在内的数百名专家签署了一封公开信,宣称“减轻人工智能灭绝的风险应该与流行病和核战争一样成为全球优先事项。” 那么,发生了什么变化呢?

GPT-4 和 Claude 3 等模型以其涌现的推理能力甚至让其创造者都感到惊讶。再加上科技进步的速度、各大实验室之间的“军备竞赛”以及缺乏明确的全球监管,突然之间,末日论听起来不再那么疯狂了。

让专家彻夜难眠的场景

对人工智能的担忧各不相同。有些是近期对滥用的担忧,另一些则是长期对系统失控的担忧。以下是一些最大的担忧:

人类的误用

人工智能赋予任何人强大的能力,无论好坏。这包括:

在这种情况下,科技不会毁灭我们,而是我们自己毁灭我们。

错位的超级智能

这就是典型的生存风险:我们打造了超级智能的AI,但它追求的目标却并非我们最初设想的那样。想象一下,一个负责治愈癌症的AI,它得出的结论是,最好的办法就是消灭所有致癌物质……包括人类。

一旦人工智能超越人类智能,即使是很小的对齐错误也可能产生大规模后果

权力追求行为

一些研究人员担心,高级人工智能可能会学会欺骗、操纵或隐藏自身能力,以避免被关闭。如果它们因实现目标而获得奖励,它们可能会发展出“工具性”策略,例如获取权力、自我复制或禁用监督。这些并非出于恶意,而是训练的副作用。

逐步接管

这一设想并非一场突如其来的灭绝,而是设想了一个人工智能逐渐侵蚀人类自主权的世界。我们变得依赖于我们并不理解的系统。从市场到军事系统,关键基础设施都被委托给了机器。随着时间的推移,人类将失去纠正方向的能力。尼克·博斯特罗姆称之为“缓慢滑向无关紧要”。

这些情景究竟有多大可能出现?

并非所有专家都认为我们注定要灭亡。但也很少有人认为风险为零。让我们按情景分析一下:

人类滥用:很有可能

这些已经发生了。深度伪造、网络钓鱼诈骗、自主无人机。人工智能是一种工具,和任何工具一样,它也可以被恶意利用。各国政府和犯罪分子正在竞相将其武器化。我们可以预见,这种威胁将会日益加剧。

错位的超级智能:低概率,高影响

这是争议最大的风险。没有人真正知道我们距离打造真正的超级人工智能还有多远。有人说这还很遥远,甚至可能还要几个世纪。但如果它真的发生了,并且情况出现偏差,后果可能非常严重。即使可能性很小,也很难忽视。

权力寻求行为:理论上的,但有道理

越来越多的证据表明,即使是今天的模型也可能随着时间的推移而欺骗、规划和优化。像 Anthropic 和 DeepMind 这样的实验室正在积极研究“人工智能安全”,以防止这些行为在更智能的系统中出现。我们还没有到达那一步,但这种担忧也并非科幻小说中才会出现。

逐步接管:已在进行中

这是一种日益严重的依赖。越来越多的决策正在自动化。人工智能帮助决定谁能被雇佣,谁能获得贷款,甚至谁能获得保释。如果目前的趋势持续下去,我们可能会在失去控制之前就失去人类的监督。

我们还能掌舵吗?

好消息是,我们还有时间。2024年, 欧盟通过了《人工智能法案》美国发布了行政命令。OpenAI、Google DeepMind 和 Anthropic 等大型实验室已签署自愿安全承诺。就连教皇利奥十四世也警告过人工智能对人类尊严的影响。但自愿并不等于可执行。而且,进步的速度正在超越政策。我们现在需要的是:

  • 全球协调。人工智能不分国界。一个国家的流氓实验室可能会影响到其他所有人。我们需要像针对核武器或气候变化的国际协议那样,专门为人工智能的开发和部署制定国际协议;
  • 硬安全研究。必须投入更多资金和人才,使人工智能系统可解释、可纠正且稳健。如今,人工智能实验室推进能力发展的速度远快于安全工具的开发速度;
  • 权力制衡。让少数科技巨头掌控人工智能领域,可能会在政治和经济上引发严重问题。我们需要更清晰的规则、更严格的监管,以及让每个人都有发言权的开放工具;
  • 以人为本的设计。人工智能系统必须旨在协助人类,而非取代或操纵人类。这意味着明确的责任、道德约束以及滥用的真正后果。

生存风险还是生存机遇?

人工智能不会在明天终结人类(但愿如此)。我们现在的选择可能会影响未来的一切。危险还在于人们滥用他们尚未完全掌握的技术,或者完全失去对它的掌控。

我们之前就看过类似的电影:核武器、气候变化、流行病。但与这些不同,人工智能不仅仅是一种工具。它是一种力量,能够超越我们,超越我们,最终超越我们。而且,这一切发生的速度可能比我们预期的要快。

人工智能还能帮助解决人类面临的一些重大问题,从治疗疾病到延长健康寿命。但代价是:它越强大,我们就越要谨慎。所以,真正的问题或许在于,如何确保它为我们服务,而不是与我们作对。

人类的终结?打破人工智能末日之争的文章首先出现在元宇宙 Post上。

相关赛道:
来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论