Anthropic公司曾获得五角大厦2亿美元的合约、机密网路存取权限以及美国军方的完全信任。
然后他们问了一个问题。
2024年11月,Anthropic成为首家在五角大厦机密网路内部署前沿人工智慧的公司。该合作项目由Anthropic与Palantir共同建立。到2025年7月,合约金额已增至2亿美元——这比大多数国防新创公司十年的收入还要多。
克劳德是安特罗皮克公司的人工智慧模型,它无所不在。情报分析、网路行动、作战计划、建模和仿真,无所不包。美国战争部称其为「任务关键型」系统。
然后就到了2026年1月。
克劳德曾被用于委内瑞拉的一项秘密军事行动——抓捕尼古拉斯·马杜罗。
Anthropic 向其合作伙伴 Palantir 提出了一个简单的问题:我们的技术究竟是如何被使用的?
在大多数行业,这叫做尽职调查。五角大厦却称之为不服从命令。
一家公司如果问“我们的人工智慧是如何被使用的?”,就差点被贴上危害国家安全的标签。
改变一切的七天
以下是时间轴。时间过得很快。这就是重点。
2月24日:美国陆军部长皮特·赫格塞斯召见安特罗皮克公司执行长达里奥·阿莫迪前往五角大厦。他的要求很明确:移除克劳德飞弹系统的所有安全防护措施。大规模国内监控。完全自主的武器。所有这一切。
截止日期:美国东部时间2月27日下午5:01。
2月26日:阿莫迪发表了他的答复,共两封信。
不。

他公开声明列出了两条他绝不会逾越的红线:
- 没有大规模的国内监控。人工智慧将你的位置资料、浏览历史和财务记录自动大规模地整合到一个个人档案中。阿莫迪指出:现行法律允许政府在没有搜索令的情况下购买这些数据。人工智慧使这些数据被武器化成为可能。 “法律尚未跟上人工智慧快速增长的能力。”
- 不会出现完全自主的武器。换句话说:杀人决策权仍然掌握在人手中。这并非因为自主武器永远不可行,而是因为现今的人工智慧还不够可靠。 “前沿人工智慧系统还不够可靠,无法驱动完全自主的武器。”
他主动提出直接与五角大厦合作进行研发工作,以提高可靠性。五角大厦拒绝了这项提议。
2月26日(同一天) :副国务卿艾米尔·迈克尔公开在社群媒体上称阿莫迪为「有上帝情结的骗子」。此举奠定了基调。
2月27日下午5:01 :最后期限已过。川普总统下令所有联邦机构停止使用Anthropic公司的产品。 Hegseth根据2018年《联邦采购供应链安全法案》将Anthropic公司列为「供应链风险」。
此前,华为和卡巴斯基这两家外国公司都被授予了这一称号——这两家公司都与敌对政府有确凿的联系。
此前从未有一家美国公司采用过这种做法。直到现在。
2月27日,数小时后:OpenAI与五角大厦签署了一项机密部署协议。
Sam Altman 于晚上 8:56 发推文:

OpenAI 后来声称,其协议「比以往任何针对机密人工智慧部署的协议(包括 Anthropic 的协议)都具有更多保障措施」。
事情是这样的。 Anthropic公司因为其护栏而被列入黑名单。而现在,护栏反而成了它的卖点。
周末:反弹立竿见影。
- 根据 Sensor Tower 数据显示,ChatGPT 的卸载量在一天之内激增了 295%。而先前 30 天的日均卸载率仅为 9%。
- Claude 在七个国家的苹果应用商店排行榜上荣登榜首:美国、比利时、加拿大、德国、卢森堡、挪威和瑞士。周五下载量增加了 37%,周六又成长了 51%。这是该应用程式首次登顶榜首。

- 超过 300 名 Google 员工和 60 名 OpenAI 员工签署了一封公开信,支援 Anthropic。
- #QuitGPT 话题在社群媒体上迅速走红。演员马克·鲁法洛和纽约大学教授斯科特·加洛韦也积极参与其中,推动了这场运动。
用户们……并不满意。
3月2日:奥特曼再次发文。这次,他在X平台上公开分享了一份篇幅很长的内部备忘录:

修正案增加了三项内容:
- 明确禁止对美国公民进行国内监视
- 一项要求是,美国国家安全局需要单独修改合约才能存取该系统。
- 使用商业取得的个人资料(地理位置、浏览历史记录、财务记录)的限制
最后一点值得注意。它是周一添加的。这意味著周五的交易并没有阻止它。
3月3日:同一天发生了两件事。
首先:在a16z美国动态高峰会上,Palantir执行长Alex Karp警告称,拒绝与军方合作的人工智慧公司将面临国有化。他在台上使用了侮辱性字眼。这段影片获得了1100万次观看。
国防科技公司 Anduril 的创始人帕尔默·拉基 (Palmer Luckey) 向同一批听众表示,“像‘政府不能利用你的技术以平民为目标’这样看似无害的措辞实际上是道德雷区。”
副总统JD·万斯当天早些时候发表了主题演讲。政府的立场很明确。
第二:根据 CNBC 报道,在一次全体员工会议上,奥特曼告诉 OpenAI 的员工,该公司「无权选择军方如何使用其技术」。
X 位用户在 Altman 之前的贴文中加入了社群留言:
读者补充了一些他们认为人们可能想了解的背景资讯:「在周二与OpenAI员工举行的全体会议上,执行长萨姆·奥特曼表示,他的公司无权决定军方如何使用其技术。」这与萨姆·奥特曼在这篇文章中的说法截然相反。
当天发布。公开声明:我们有规章制度和原则。内部会议:我们没有选择权。
同时,哥伦比亚广播公司新闻报道称,尽管克劳德已被列入供应链风险名单,但它仍然被部署在包括针对伊朗的军事行动中。显然,列入黑名单的措施并未奏效。这项技术深深嵌入在机密系统中,无法移除。
95%的问题
在战争游戏模拟中,人工智慧模型有 95% 的机率选择发射战术核武。
稍等片刻。
GPT-5.2、Claude Sonnet 4 和Gemini 3 Flash 三款模型接受了军事冲突模拟测试。在 95% 的模拟场景中,它们都使用了战术核武。在 21 场模拟游戏中,至少有 20 场游戏使用了核武。
那是五角大厦想要自主部署的技术。
故障模式均有记录且一致:
- 升级偏差。这些模型并非随机失效,而是朝著特定方向失效──也就是升级冲突。布鲁金斯学会的研究发现,人工智慧在军事领域的错误是系统性的,而非随机的。其模式始终如一:动用更多武力,加快速度。
- 幻觉。 LLM (逻辑逻辑模型)能够高置信度地产生虚假资讯。在一项与伊朗空袭相关的测试中,人工智慧将捏造的情报输入决策链。在时间压力下,人类操作员无法分辨真假情报。
- 对抗性漏洞。这些系统可以透过精心建构的输入进行操纵,从而绕过其限制。攻击者无需来自外部。漏洞存在于模型本身。
这些并非特殊案例,而是当今科技的实际应用。
换个角度想,我们已经看到,在军事环境中,简单的自主系统一旦失效会发生什么事。
2003年,爱国者飞弹系统误将一架友军英国飞机识别为敌方飞弹,导致盟军士兵丧生。该系统基于规则,并设定了明确的参数,但仍然出现了错误。
1988年,美国海军「文森斯号」航空母舰击落了伊朗航空655号班机-一架商用客机,造成290名平民丧生。舰上的宙斯盾作战系统根据雷达资料错误识别了目标飞机。舰员只有几秒钟的时间来做决定。他们选择了相信系统。
那些都是基于规则、参数明确的系统。而逻辑逻辑模型(LLM)的复杂程度则高出几个数量级,更加不透明,也更难预测。
他们被要求做出更重要的决定。
监理难题。一旦人工智慧部署在机密网路中,外部问责就变得如专家所说的「几乎不可能」。在运转压力下,各种限制措施会逐渐瓦解。 OpenAI承诺的现场部署工程师当然可以观察一些交互,但机密操作本身就限制了资讯流动。
用英语来说:同样的墙壁既能保守秘密,也能阻止监督。
五角大厦的说法有一定道理,应该得到公正的听证。
部分自主武器——例如乌克兰使用的无人机——能够挽救生命。它们使规模较小的部队能够抵御规模更大的部队。中国和俄罗斯并没有等到系统完全可靠才部署自己的系统。
拒绝在国防领域使用人工智慧会造成能力差距,对手会利用这一点。
达里奥·阿莫代伊直接承认了这一点:
“即使是完全自主的武器,也可能对我们的国防至关重要。”
他反对的并非目的地,而是时间安排。
“如今,前沿人工智慧系统的可靠性还远远不够。”
他主动提出合作进行实现目标所需的研发工作,但五角大厦拒绝了。
「人工智慧可以总结情报报告」(这是它真正擅长的领域)与「人工智慧可以决定谁生谁死」之间存在著巨大的鸿沟。合约无法弥合这一鸿沟,修订也无法弥合,唯有工程技术才能做到。
工程尚未完成。
如何将美国公司列入黑名单
供应链风险。听起来很官僚,但实际上是一个终止开关。
根据2018年《联邦采购供应链安全法案》(FASCSA),「供应链风险」认定意味著任何政府承包商都不能与您开展业务。这不仅仅是五角大厦,而是任何想要获得联邦合约的人,包括政府生态系统中的任何供应商、分包商或合作伙伴。
用英文来说:你对整个联邦供应链来说都变成了放射性物质。
这项法律是为应对外国威胁而制定的。华为的5G基础设施。卡巴斯基的防毒软体。与敌对政府有确凿联系的公司。
在 Anthropic 之前上榜的每一家公司都有一个共同点:它们都来自被认为是美国敌对的国家。
Anthropic 的总部位于旧金山。
五角大厦也威胁要废除《国防生产法》——这是一项冷战时期的法律,旨在征用工厂用于战时生产。钢铁厂、弹药厂,以及战争的物质基础建设。
五角大厦威胁要利用这项技术迫使一家软体公司从人工智慧聊天机器人中移除安全功能。
法律专家称这种做法「值得商榷」。该法律最初是为实体生产而制定的,而非针对软体的限制。利用该法律强迫公司降低其人工智慧的安全性,至少是一种新颖的法律理论。
阿莫迪指出了他陈述中的逻辑问题:
“这些威胁本身就自相矛盾:一种说法称我们是安全隐患;另一种说法则称克劳德对国家安全至关重要。”
你不能一方面把某项技术称为供应链威胁,另一方面又因为自己离不开它就动用紧急权力来没收它。二者必居其一。
实际情况令人震惊。哥伦比亚广播公司新闻报道称,尽管被列入黑名单,克劳德系统仍在军方服役。这种做法带有惩罚性质,而非实际意义──因为这项技术已经根深蒂固,难以拆除。
这就引出了一个华盛顿似乎没有人愿意回答的问题:如果五角大厦不能强制执行其已正式列入黑名单的技术的移除令,那么它究竟如何强制执行使用限制呢?
五角大厦的立场很明确:私人公司不制定军事政策。人工智慧公司只是供应商,军方决定如何使用这些工具。
从这个角度来看,Anthropic 是一家拒绝交付订单的供应商。客户最后找到了另一家供应商。
这种框架本身是自洽的。它也像是办公用品的框架,而不是在95%的模拟中都选择核升级的技术的框架。
护栏是真的吗?
上周五,OpenAI 的交易还有一些限制。到了周一,就需要更多限制了。
这说明周五的防疫措施有多严格。
奥特曼在周一的修正案中同意的措辞值得仔细研读:
“人工智慧系统不得故意用于对美国公民和居民进行国内监视。”
真正起作用的字是:有意地。
如果人工智慧处理的资料集恰好包含美国公民的讯息,会发生什么事?如果监视是更广泛情报行动的副产品,而非既定目标,又该如何界定?在监管机制因设计而受限的机密网路中,谁来定义意图?
商业获取数据条款更具启发性。周一通过的修正案明确禁止使用购买的个人资料——例如位置追踪、浏览记录和财务记录——来监视美国公民。
该条款是周一添加的。周五的协议中并没有包含该条款。
整个周末,OpenAI 与五角大厦达成的协议实际上允许透过商业购买的数据对美国公民进行大规模监控。
奥特曼也承认了这一点:
“我们不应该急于在周五发布这份文件。”
美国国家安全局(NSA)的特殊条款也值得关注。像NSA这样的情报机构如果想使用OpenAI的系统,必须对合约进行「后续修改」。这听起来像是禁止,但实际上只是一个流程。授予存取权限的机制已经内建在合约结构中。
那不是墙,那是一扇门,需要用不同的钥匙打开。
更深层的问题在于这种自相矛盾。就在奥特曼发布关于X平台原则和限制措施的同一天,他又在内部告诉员工,OpenAI「无权决定军方如何使用其技术」。
如果开发人工智慧的公司无法选择如何使用它,那么所谓的「安全保障措施」就只是一份新闻稿,而不是真正的政策。
在机密环境中,监控人工智慧与监控云端服务有著本质差异。保护军事机密的安全机制也阻碍了对人工智慧行为的独立监督。
现场部署的工程师可以观察一些互动过程。但是,「一些互动过程」和「合约涵盖的每一次互动过程」是截然不同的两件事。
接下来会发生什么事?
市场已经表明了态度。合作才能获得合同,反抗则会被列入黑名单。
公众也已经表达了他们的意愿。他们正在卸载这款软体。
激励机制很明确。 OpenAI 配合完成了交易。 Anthropic 拒绝合作,结果被认定为供应链风险企业——政府也用同样的标签来指涉与外国敌对势力有关联的公司。
在a16z峰会上,卡普预测所有人工智慧公司都将在三年内与军方合作。根据激励机制来看,这并非预测,而是一种描述。
但舆论反弹的数据却呈现出不同的景象。
卸载量激增295%。 Claude在七个国家排名第一。超过500名科技员工与雇主决裂。 《世界报》在巴黎发表社论,批评政府权力过度扩张。民调显示,84%的英国公民对政府与企业在人工智慧领域的合作感到担忧。
建造这些系统的工程师和使用这些系统的人们看到了五角大厦显然没有看到的东西:支持国防和部署不可靠的技术进行自主杀戮是两回事。
任何合约修改都无法弥补这一漏洞。任何防护措施都无法弥补这项漏洞。任何派驻现场的工程师都无法弥补这个漏洞。
人工智慧模型在95%的战争游戏模拟中选择了核升级。声称「技术尚未成熟」的公司被列入黑名单。而表示「技术成熟」的公司在72小时内承认自己犯了错。无论两家公司意愿如何,这项技术仍在实际作战中使用。
阿莫迪主动提出研发能够确保自主人工智慧武器安全可靠的技术,并表示愿意与五角大厦合作实现这一目标。但这项提议遭到了拒绝。
安特罗派克公司曾获得一份价值2亿美元的合同,并赢得了五角大厦的信任。之后,他们却问他们的技术是如何被使用的。
答案是设定最后期限、列入黑名单,以及贴上以前只用于美国敌对国家的标签。
模拟程式持续运行。其中95%的模拟中,有人按下了按钮。



