新加坡政府今天发布了一份关于人工智能安全的全球合作蓝图,此前在美国、中国和欧洲的人工智能研究人员会议之后。该文件阐述了通过国际合作而非竞争来推进人工智能安全的共同愿景。
"新加坡是地球上少数几个与东西方都相处融洽的国家,"麻省理工学院的科学家马克斯·特格马克说,他帮助召集了上个月的人工智能精英会议。"他们知道自己不会建造[人工通用智能],而是会被建造,所以让将要建造它的国家相互交流非常符合他们的利益。"
最有可能建造人工通用智能的国家当然是美国和中国,但这两个国家似乎更专注于相互对抗而非合作。今年1月,中国初创公司DeepSeek发布尖端模型后,特朗普总统称其为"我们产业的警钟",并表示美国需要"专注于竞争以获胜"。
新加坡全球人工智能安全研究重点共识呼吁研究人员在三个关键领域开展合作:研究前沿人工智能模型带来的风险,探索更安全的模型构建方式,以及开发控制最先进人工智能系统行为的方法。
这一共识是在4月26日与国际学习表征大会(ICLR)期间在新加坡举行的会议上制定的,该大会今年在新加坡举行。
OpenAI、Anthropic、谷歌DeepMind、xAI和Meta的研究人员,以及来自麻省理工学院、斯坦福大学、清华大学和中国科学院等机构的学术界人士均出席了人工智能安全活动。来自美国、英国、法国、加拿大、中国、日本和韩国人工智能安全研究所的专家也参与其中。
"在地缘政治分裂的时代,这份关于人工智能安全的全面综合研究是一个令人鼓舞的迹象,表明全球社会正在携手共同致力于塑造一个更安全的人工智能未来,"清华大学院长薛澜在声明中说。
越来越强大的人工智能模型的发展,其中一些模型具有令人惊讶的能力,引起了研究人员对各种风险的担忧。虽然一些人关注近期危害,包括偏见人工智能系统造成的问题或犯罪分子利用该技术的潜在可能,但相当一部分人认为,随着人工智能在更多领域开始超越人类,它可能对人类构成生存威胁。这些研究人员,有时被称为"人工智能末日论者",担心模型可能会欺骗和操纵人类以追求自身目标。
人工智能的潜力也引发了美国、中国和其他强国之间可能爆发军备竞赛的讨论。在政策圈,该技术被视为经济繁荣和军事主导地位的关键,许多政府都试图制定自己的愿景和监管方式来指导其发展。
DeepSeek今年1月的亮相加剧了人们对中国可能赶上甚至超过美国的担忧,尽管美国已通过出口管制限制中国获取人工智能硬件。现在,特朗普政府正在考虑额外措施,旨在限制中国构建尖端人工智能的能力。
特朗普政府还试图淡化人工智能风险,转而支持在美国更积极地发展该技术。在2025年巴黎的一次重要人工智能会议上,副总统JD范斯表示,美国政府希望减少对人工智能开发和部署的限制,并将之前的方法描述为"过于风险规避"。
麻省理工学院的科学家特格马克表示,一些人工智能研究人员热衷于在巴黎会议之后"扭转局势",重新将注意力集中在日益强大的人工智能可能带来的潜在风险上。
在新加坡会议上,特格马克提出了一篇技术论文,质疑了关于如何安全构建人工智能的一些假设。此前,一些研究人员曾建议可以使用较弱的模型来控制强大的人工智能模型。特格马克的论文表明,在某些简单场景中这种动态并不奏效,这意味着它可能无法阻止人工智能模型出现偏差。
"我们尽最大努力对此进行量化,从技术上讲,这并不像人们希望的那样有效,"特格马克说。"而且,众所周知,风险相当高。"





