本文目錄
Toggle美國人工智慧公司 Anthropic 執行長 Dario Amodei(達里奧·阿莫迪)近日重啟與美國國防部(五角大樓)的談判,針對其 AI 模型 Claude 在軍事用途的合同條款進行最後努力。此舉發生在上週雙方談判破裂、五角大樓將 Anthropic 列為「供應鏈風險」之後,旨在避免 Anthropic 被排除在美軍合作之外,同時維持其核心倫理原則。
談判背景與紅線堅持
Anthropic 自去年起與五角大樓簽訂價值高達 2 億美元的試點合同,讓 Claude 成為首個獲准部署在機密網路的先進 AI 模型。然而,川普政府後續要求修改條款,堅持 AI 須適用於「所有合法用途」(any lawful use),無任何限制。
Anthropic 則堅守兩條「紅線」:禁止 Claude 用於美國民眾的大規模國內監控,以及禁止用於完全自主致命武器(fully autonomous weapons,即無需人類介入即可選擇並攻擊目標的系統)。Anthropic 認為,這些用途可能危害民主價值,且當前 AI 技術尚未足夠可靠。不過國防部長 Pete Hegseth 曾發出最後通牒,要求在期限內妥協,否則終止合同並援引相關法規強制執行,導致談判一度於上週五崩盤。
重啟談判的最新進展
據知情人士透露,Amodei 目前正直接與國防部研究與工程副部長 Emil Michael 進行磋商,目標是達成一份折衷協議,讓美軍繼續使用 Claude,同時大幅降低 Anthropic 被正式列入黑名單的風險。
若成功,新合同可能緩解緊張局勢,並影響 AI 產業競爭格局 —— 例如 OpenAI 已與五角大樓達成協議,但也在調整條款加入類似限制。Anthropic 則強調仍願意合作,但不會放棄核心護欄;若無法達成共識,公司將協助平穩過渡至其他供應商,以免影響軍方運作。
事件意義與未來展望
這起爭議凸顯出 AI 公司與軍方在倫理、安全與國家安全之間的拉鋸戰。Anthropic 以「負責任 AI」為品牌定位,拒絕無條件讓步,反映矽谷部分企業對 AI 軍事應用的深層憂慮;五角大樓則強調戰場靈活性與技術優勢。
若談判順利,可能為 AI 軍事應用樹立新範例;反之,恐加劇產業分裂。業界人士預期,或許很快將有官方聲明或新進展浮出水面。



