以太坊联合创始人V神提出了关于超级智能AI风险和强大防御机制的警告。
V神的评论是在人工智能快速发展的背景下提出的,人工智能安全问题已经引起了广泛关注。
V神的AI监管计划:责任、暂停按钮和国际控制
在2025年1月5日的一篇博客文章中,V神概述了他关于"d/acc或防御性加速"的想法,即应该开发技术来防御而不是造成伤害。然而,这并不是V神第一次谈及人工智能相关风险。
V神在2023年表示,"人工智能出现问题可能会以最糟糕的方式让世界变得更糟:它可能会直接导致人类灭绝。"
V神现在进一步阐述了他2023年的理论。据V神称,超级智能AI可能只需要几年时间就能出现。
"看起来我们只需要3年时间就能实现AGI,再过3年就能实现超级智能。因此,如果我们不想让世界被毁灭或陷入不可逆转的困境,我们不仅要加速好的发展,还要减缓坏的发展。"V神写道。
为了减轻AI相关风险,V神主张创建去中心化的AI系统,这些系统仍然与人类决策紧密相连。通过确保AI仍然是人类手中的工具,可以最大限度地减少灾难性结果的威胁。
V神还解释了军方可能成为"AI毁灭"场景的负责方。全球范围内,AI军事使用正在上升,这在乌克兰和加沙地带都有所体现。V神还认为,任何即将出台的AI监管措施很可能都会豁免军方,这使得军方成为一个重大威胁。
以太坊联合创始人进一步概述了他的AI监管计划。他表示,避免AI风险的第一步是要让用户承担责任。
"虽然模型的开发方式和最终用途之间的联系往往不太清楚,但用户决定了AI的具体使用方式,"V神解释说,强调了用户所扮演的角色。
如果责任规则不奏效,下一步就是实施"软暂停"按钮,允许AI监管减缓潜在危险进展的步伐。
"目标是能够在关键时期将全球可用计算能力减少约90-99%,持续1-2年,为人类提供更多准备时间。"
他说,这种暂停可以通过AI位置验证和注册来实现。
另一种方法是控制AI硬件。V神解释说,AI硬件可以配备一个芯片来进行控制。
这个芯片将只允许AI系统在每周从三个国际机构获得签名后才能运行。他进一步补充说,其中至少一个机构应该是非军事性质的。
尽管如此,V神承认他的策略存在漏洞,只是"临时性的缓解措施"。