Vitalik Buterin 敲响警钟:超级人工智能可能比你想象的更快到来

avatar
BeInCrypto
3 天前
本文为机器翻译
展示原文

以太坊联合创始人V神提出了关于超级智能AI风险和强大防御机制的警告。

V神的评论是在人工智能快速发展的背景下提出的,人工智能安全问题已经引起了广泛关注。

V神的AI监管计划:责任、暂停按钮和国际控制

在2025年1月5日的一篇博客文章中,V神概述了他关于"d/acc或防御性加速"的想法,即应该开发技术来防御而不是造成伤害。然而,这并不是V神第一次谈及人工智能相关风险。

V神在2023年表示,"人工智能出现问题可能会以最糟糕的方式让世界变得更糟:它可能会直接导致人类灭绝。"

V神现在进一步阐述了他2023年的理论。据V神称,超级智能AI可能只需要几年时间就能出现。

"看起来我们只需要3年时间就能实现AGI,再过3年就能实现超级智能。因此,如果我们不想让世界被毁灭或陷入不可逆转的困境,我们不仅要加速好的发展,还要减缓坏的发展。"V神写道。

为了减轻AI相关风险,V神主张创建去中心化的AI系统,这些系统仍然与人类决策紧密相连。通过确保AI仍然是人类手中的工具,可以最大限度地减少灾难性结果的威胁。

V神还解释了军方可能成为"AI毁灭"场景的负责方。全球范围内,AI军事使用正在上升,这在乌克兰和加沙地带都有所体现。V神还认为,任何即将出台的AI监管措施很可能都会豁免军方,这使得军方成为一个重大威胁。

以太坊联合创始人进一步概述了他的AI监管计划。他表示,避免AI风险的第一步是要让用户承担责任。

"虽然模型的开发方式和最终用途之间的联系往往不太清楚,但用户决定了AI的具体使用方式,"V神解释说,强调了用户所扮演的角色。

如果责任规则不奏效,下一步就是实施"软暂停"按钮,允许AI监管减缓潜在危险进展的步伐。

"目标是能够在关键时期将全球可用计算能力减少约90-99%,持续1-2年,为人类提供更多准备时间。"

他说,这种暂停可以通过AI位置验证和注册来实现。

另一种方法是控制AI硬件。V神解释说,AI硬件可以配备一个芯片来进行控制。

这个芯片将只允许AI系统在每周从三个国际机构获得签名后才能运行。他进一步补充说,其中至少一个机构应该是非军事性质的。

尽管如此,V神承认他的策略存在漏洞,只是"临时性的缓解措施"。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论