这一周,科技界两位最有影响力的声音提出了截然不同的人工智能发展愿景,突出了创新与安全之间日益加剧的矛盾。
OpenAI首席执行官Sam Altman在一篇博客文章中透露,该公司的用户群已从2年前的1亿增加到现在的3亿周活跃用户,正在朝着通用人工智能(AGI)的目标加速前进。
Altman表示,OpenAI已经有信心知道如何构建传统意义上的AGI,并称2025年AI代理可能"加入劳动力队伍",并"显著改变公司的产出"。
Altman说,OpenAI正朝着不仅仅是AI代理和AGI的方向发展,公司正开始研究"真正意义上的超级智能"。
关于AGI或超级智能的交付时间表尚不清楚。OpenAI尚未立即回应置评请求。
但在周日的几个小时前,以太坊联合创始人Vitalik Buterin提出,利用区块链技术为先进AI系统创建全球性的故障保护机制,包括一种"软暂停"功能,如果出现警示迹象,可以暂时限制工业规模的AI操作。
Buterin在这里谈到了"d/acc"或去中心化/防御性加速。简单来说,d/acc是e/acc(有效加速)的一种变体,e/acc是硅谷知名人士如a16z的Marc Andreessen所倡导的一种哲学运动。
Buterin的d/acc也支持技术进步,但优先考虑增强安全性和人类主导权的发展。与以"任何代价的增长"为宗旨的有效加速主义(e/acc)不同,d/acc首先关注构建防御性能力。
"d/acc是将加密货币的基本价值观(去中心化、抗审查、开放的全球经济和社会)扩展到其他技术领域,"Buterin写道。
回顾过去一年d/acc的发展,Buterin写道,可以利用现有的加密机制(如零知识证明)来实施对AGI和超级智能系统更谨慎的方法。
根据Buterin的提议,主要的AI计算机每周都需要获得三个国际团体的批准才能继续运行。
"这些签名将是设备独立的(如果需要,我们甚至可以要求在区块链上发布的零知识证明),所以这将是全有或全无:实际上没有办法只授权一台设备继续运行而不授权所有其他设备,"Buterin解释道。
这个系统将像一个主开关一样工作,要么所有获批准的计算机都运行,要么都不运行——防止任何人进行选择性执法。
"在发生这种关键时刻之前,仅仅拥有软暂停的能力就不会对开发者造成太大伤害,"Buterin指出,将这个系统描述为防范灾难性场景的一种保险。
无论如何,OpenAI从2023年开始的爆炸性增长,从1亿增加到3亿周活跃用户,都显示了AI采用正在快速推进。
从一个独立的研究实验室发展成为一家科技巨头,Altman承认了围绕这项新技术建立"几乎从头开始的整个公司"的挑战。
这些提议反映了行业围绕管理AI发展的更广泛辩论。支持者此前曾主张,实施任何全球控制系统都需要主要AI开发商、政府和加密行业之间前所未有的合作。
"一年的'战时模式'很容易价值一百年的在安逸条件下的工作,"Buterin写道。"如果我们必须限制人们,似乎最好是在平等的基础上限制所有人,并努力真正合作来组织这一点,而不是一方试图主导其他所有人。"