OpenAI声称五角大厦交易中划定了安全「红线」——但用户并不买单。

本文为机器翻译
展示原文

OpenAI 本周末表示,已与五角大楼达成协议,将在机密环境中部署先进的人工智能系统,这标志着该公司与美国军方的合作显著扩展。

就在特朗普政府将人工智能竞争对手Anthropic 列入黑名单不到 24 小时后,该声明发布了。此前,双方在与监控和自主武器相关的合同条款上存在争议,特朗普政府将 Anthropic 列为“对国家安全的供应链风险”。

唐纳德·特朗普总统还指示联邦机构立即停止使用 Anthropic 的技术。财政部长斯科特·贝森特周一在 X 上撰文称,该机构“正在终止在我们部门内使用 Anthropic 的所有产品,包括其 Claude 平台”。

人工智能项目宣布的时机使OpenAI的交易受到密切关注。该公司在一篇详细的博客文章中概述了其所谓的“底线”和多层保障措施,这些措施规范了其与五角大楼的合作。

OpenAI 提出的这项协议引发了更广泛的问题,即在国家安全环境中如何管理人工智能系统,以及该公司所声明的限制在实践中将如何解释和执行。

OpenAI 的博客文章开头提出了三项不容谈判的承诺:不将其技术用于大规模国内监控、独立指挥自主武器系统或用于高风险的自动化决策(如社会信用评分)。

接下来是实际的合同语言——值得注意的是,OpenAI 将其称为“相关语言”,而不是“完整协议”。

OpenAI表示:“战争部可以出于所有合法目的使用该人工智能系统,但必须符合适用法律、作战要求以及既定的安全和监督协议。”

这正是Anthropic公司声称政府在整个谈判过程中一直要求的措辞,也是Anthropic公司拒绝接受的措辞。OpenAI签署了该措辞,却坚称其底线依然不变。

然而,在国家安全领域,“合法”并非一个固定的界限——它存在于一系列法规、行政命令、内部指令以及通常属于机密的法律解释之中。当合同授予“所有合法用途”时,实际的限制在于政府现行的法律框架,而非供应商设定的独立标准。

武器条款规定,人工智能系统“在任何法律、法规或部门政策要求人为控制的情况下,不得用于独立指挥自主武器”。

这项禁令仅适用于其他权威机构已经要求人为控制的情况——它完全借鉴了现有政策,特别是国防部指令3000.09 。该指令要求自主系统允许指挥官对武力的使用行使“适当程度的人为判断”。

而“合适”则是一个非常主观的概念。

人的判断并不等同于人的控制。这种区别并非偶然。国防学者指出,省略“人为干预”这一表述是刻意为之,正是为了保持作战的灵活性。

OpenAI最有力的反驳论点是其仅限云端部署的架构——完全自主的致命决策回路需要在战场设备上进行边缘部署,而这份合同不允许这样做。这是一个真正的技术限制。

但基于云的人工智能仍然可以执行目标识别、生命模式分析和任务规划。无论最终触发因素位于何处,这些都是杀伤链活动。目标的最终结果不会因模型运行在哪个服务器上而有所不同。

监控条款也遵循类似的模式。OpenAI 明确划定了底线:禁止大规模国内监控。合同措辞为:该系统“不得用于不受限制地监控美国公民的私人信息,除非符合以下授权”——随后列出了第四修正案、外国情报监视法 (FISA) 和第 12333 号行政命令。

“不受限制”一词暗示着某种程度上的大规模监控是允许的。而第12333号行政命令正是美国国家安全局用来为在美国境外拦截美国公民通信行为辩护的依据。

而这正是Anthropic公司在整个谈判过程中对措辞的担忧显露无疑之处。Anthropic的论点是,现行法律尚未跟上人工智能所能实现的极限。政府无需搜查令即可合法购买大量关于美国公民的汇总商业数据——而且政府已经这样做了。

OpenAI 的合同语言将其保护措施与现有的法律框架挂钩,但这可能无法弥合 Anthropic 实际上所担心的差距。

周六晚,奥特曼举行了一场问答活动,回答了数千个关于这项交易的问题。当被问及什么情况下OpenAI会放弃与政府的合作时,他回答说:“如果我们被要求做违宪或非法的事情,我们会退出。”

这种框架将OpenAI的界限限定在合法性上,而不是对公司在合法的情况下会或不会支持哪些行为做出独立的伦理判断——而这正是Anthropic所捍卫的。当被问及是否担心未来会就“合法”的定义产生争议时,他承认存在这种风险:“如果必须面对这种斗争,我们会迎难而上,但这显然会让我们面临一定的风险。”

关于OpenAI为何能达成协议而Anthropic却未能达成,奥特曼解释说:“Anthropic似乎更关注合同中的具体禁令,而不是引用适用的法律,而我们认为后者更合适。如果只能二选一,我显然更倾向于依赖技术保障。我认为Anthropic可能想要比我们拥有更大的运营控制权。”

这是一个实质性的哲学分歧。Anthropic公司认为,由于前沿模型可能以难以预料的方式被重新用于情报和军事工作流程,因此即使会因此失去交易,也必须以书面形式明确规定其限制并使其具有约束力。OpenAI公司的立场是,技术架构、嵌入式人员和现行法律共同构成比单纯的合同文本更强有力的保障。

反弹立竿见影。截至周一,“抵制GPT ”运动声称已有超过150万人采取行动——取消订阅、转发抵制帖子或在quitgpt.org网站注册。

该活动将 OpenAI 的举动描述为优先考虑军事合同而非用户安全,并指责该公司同意让五角大楼将其技术用于“任何合法目的,包括杀手机器人和大规模监控”。

OpenAI或许会对这种说法提出异议。但市场并未因此受到影响。

Anthropic 的 Claude 超越 ChatGPT,成为美国苹果应用商店下载量最高的免费应用。该公司告诉Decrypt ,周末期间,其每日注册量创下纪录

流行歌手凯蒂·佩里在X网站上分享了克劳德定价页面的截图。数百名用户在Reddit上公开记录了他们取消订阅的事件。赞扬Anthropic的涂鸦出现在其旧金山办公室外,而OpenAI的办公楼人行道上则布满了粉笔涂鸦。甚至连OpenAI的数百名员工此前也签署了一封公开信,支持Anthropic拒绝接受五角大楼的要求。

QuitGPT的框架虽然在情感上颇具说服力,但并不完全准确。Anthropic本身就与Palantir和亚马逊网络服务公司(AWS)存在合作关系,这使得美国情报机构和国防部能够访问Claude模型,并且据称这些模型曾被用于推翻委内瑞拉伊朗政府的军事行动。人工智能和国家安全合同的伦理问题从来都不是清白的,无论在哪一方都是如此。

该活动准确地捕捉到,很大一部分用户认为这两家公司在设定限制方面存在着实质性的区别——并​​通过订阅投票表达了这种看法。

这种差异是否像表面看起来那么重要,需要仔细阅读合同。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论