本文目录
Toggle美国人工智慧公司 Anthropic 执行长 Dario Amodei(达里奥·阿莫迪)近日重启与美国国防部(五角大楼)的谈判,针对其 AI 模型 Claude 在军事用途的合同条款进行最后努力。此举发生在上周双方谈判破裂、五角大楼将 Anthropic 列为「供应链风险」之后,旨在避免 Anthropic 被排除在美军合作之外,同时维持其核心伦理原则。
谈判背景与红线坚持
Anthropic 自去年起与五角大楼签订价值高达 2 亿美元的试点合同,让 Claude 成为首个获准部署在机密网路的先进 AI 模型。然而,川普政府后续要求修改条款,坚持 AI 须适用于「所有合法用途」(any lawful use),无任何限制。
Anthropic 则坚守两条「红线」:禁止 Claude 用于美国民众的大规模国内监控,以及禁止用于完全自主致命武器(fully autonomous weapons,即无需人类介入即可选择并攻击目标的系统)。Anthropic 认为,这些用途可能危害民主价值,且当前 AI 技术尚未足够可靠。不过国防部长 Pete Hegseth 曾发出最后通牒,要求在期限内妥协,否则终止合同并援引相关法规强制执行,导致谈判一度于上周五崩盘。
重启谈判的最新进展
据知情人士透露,Amodei 目前正直接与国防部研究与工程副部长 Emil Michael 进行磋商,目标是达成一份折衷协议,让美军继续使用 Claude,同时大幅降低 Anthropic 被正式列入黑名单的风险。
若成功,新合同可能缓解紧张局势,并影响 AI 产业竞争格局 —— 例如 OpenAI 已与五角大楼达成协议,但也在调整条款加入类似限制。Anthropic 则强调仍愿意合作,但不会放弃核心护栏;若无法达成共识,公司将协助平稳过渡至其他供应商,以免影响军方运作。
事件意义与未来展望
这起争议凸显出 AI 公司与军方在伦理、安全与国家安全之间的拉锯战。Anthropic 以「负责任 AI」为品牌定位,拒绝无条件让步,反映矽谷部分企业对 AI 军事应用的深层忧虑;五角大楼则强调战场灵活性与技术优势。
若谈判顺利,可能为 AI 军事应用树立新范例;反之,恐加剧产业分裂。业界人士预期,或许很快将有官方声明或新进展浮出水面。



