OpenAI聲稱五角大廈交易中劃定了安全「紅線」——但用戶並不買單。

本文為機器翻譯
展示原文

OpenAI 本週末表示,已與五角大樓達成協議,將在機密環境中部署先進的人工智能系統,這標誌著該公司與美國軍方的合作顯著擴展。

就在特朗普政府將人工智能競爭對手Anthropic 列入黑名單不到 24 小時後,該聲明發布了。此前,雙方在與監控和自主武器相關的合同條款上存在爭議,特朗普政府將 Anthropic 列為“對國家安全的供應鏈風險”。

唐納德·特朗普總統還指示聯邦機構立即停止使用 Anthropic 的技術。財政部長斯科特·貝森特週一在 X 上撰文稱,該機構“正在終止在我們部門內使用 Anthropic 的所有產品,包括其 Claude 平臺”。

人工智能項目宣佈的時機使OpenAI的交易受到密切關注。該公司在一篇詳細的博客文章中概述了其所謂的“底線”和多層保障措施,這些措施規範了其與五角大樓的合作。

OpenAI 提出的這項協議引發了更廣泛的問題,即在國家安全環境中如何管理人工智能系統,以及該公司所聲明的限制在實踐中將如何解釋和執行。

OpenAI 的博客文章開頭提出了三項不容談判的承諾:不將其技術用於大規模國內監控、獨立指揮自主武器系統或用於高風險的自動化決策(如社會信用評分)。

接下來是實際的合同語言——值得注意的是,OpenAI 將其稱為“相關語言”,而不是“完整協議”。

OpenAI表示:“戰爭部可以出於所有合法目的使用該人工智能系統,但必須符合適用法律、作戰要求以及既定的安全和監督協議。”

這正是Anthropic公司聲稱政府在整個談判過程中一直要求的措辭,也是Anthropic公司拒絕接受的措辭。OpenAI簽署了該措辭,卻堅稱其底線依然不變。

然而,在國家安全領域,“合法”並非一個固定的界限——它存在於一系列法規、行政命令、內部指令以及通常屬於機密的法律解釋之中。當合同授予“所有合法用途”時,實際的限制在於政府現行的法律框架,而非供應商設定的獨立標準。

武器條款規定,人工智能系統“在任何法律、法規或部門政策要求人為控制的情況下,不得用於獨立指揮自主武器”。

這項禁令僅適用於其他權威機構已經要求人為控制的情況——它完全借鑑了現有政策,特別是國防部指令3000.09 。該指令要求自主系統允許指揮官對武力的使用行使“適當程度的人為判斷”。

而“合適”則是一個非常主觀的概念。

人的判斷並不等同於人的控制。這種區別並非偶然。國防學者指出,省略“人為干預”這一表述是刻意為之,正是為了保持作戰的靈活性。

OpenAI最有力的反駁論點是其僅限雲端部署的架構——完全自主的致命決策迴路需要在戰場設備上進行邊緣部署,而這份合同不允許這樣做。這是一個真正的技術限制。

但基於雲的人工智能仍然可以執行目標識別、生命模式分析和任務規劃。無論最終觸發因素位於何處,這些都是殺傷鏈活動。目標的最終結果不會因模型運行在哪個服務器上而有所不同。

監控條款也遵循類似的模式。OpenAI 明確劃定了底線:禁止大規模國內監控。合同措辭為:該系統“不得用於不受限制地監控美國公民的私人信息,除非符合以下授權”——隨後列出了第四修正案、外國情報監視法 (FISA) 和第 12333 號行政命令。

“不受限制”一詞暗示著某種程度上的大規模監控是允許的。而第12333號行政命令正是美國國家安全局用來為在美國境外攔截美國公民通信行為辯護的依據。

而這正是Anthropic公司在整個談判過程中對措辭的擔憂顯露無疑之處。Anthropic的論點是,現行法律尚未跟上人工智能所能實現的極限。政府無需搜查令即可合法購買大量關於美國公民的彙總商業數據——而且政府已經這樣做了。

OpenAI 的合同語言將其保護措施與現有的法律框架掛鉤,但這可能無法彌合 Anthropic 實際上所擔心的差距。

週六晚,奧特曼舉行了一場問答活動,回答了數千個關於這項交易的問題。當被問及什麼情況下OpenAI會放棄與政府的合作時,他回答說:“如果我們被要求做違憲或非法的事情,我們會退出。”

這種框架將OpenAI的界限限定在合法性上,而不是對公司在合法的情況下會或不會支持哪些行為做出獨立的倫理判斷——而這正是Anthropic所捍衛的。當被問及是否擔心未來會就“合法”的定義產生爭議時,他承認存在這種風險:“如果必須面對這種鬥爭,我們會迎難而上,但這顯然會讓我們面臨一定的風險。”

關於OpenAI為何能達成協議而Anthropic卻未能達成,奧特曼解釋說:“Anthropic似乎更關注合同中的具體禁令,而不是引用適用的法律,而我們認為後者更合適。如果只能二選一,我顯然更傾向於依賴技術保障。我認為Anthropic可能想要比我們擁有更大的運營控制權。”

這是一個實質性的哲學分歧。Anthropic公司認為,由於前沿模型可能以難以預料的方式被重新用於情報和軍事工作流程,因此即使會因此失去交易,也必須以書面形式明確規定其限制並使其具有約束力。OpenAI公司的立場是,技術架構、嵌入式人員和現行法律共同構成比單純的合同文本更強有力的保障。

反彈立竿見影。截至週一,“抵制GPT ”運動聲稱已有超過150萬人採取行動——取消訂閱、轉發抵制帖子或在quitgpt.org網站註冊。

該活動將 OpenAI 的舉動描述為優先考慮軍事合同而非用戶安全,並指責該公司同意讓五角大樓將其技術用於“任何合法目的,包括殺手機器人和大規模監控”。

OpenAI或許會對這種說法提出異議。但市場並未因此受到影響。

Anthropic 的 Claude 超越 ChatGPT,成為美國蘋果應用商店下載量最高的免費應用。該公司告訴Decrypt ,週末期間,其每日註冊量創下紀錄

流行歌手凱蒂·佩裡在X網站上分享了克勞德定價頁面的截圖。數百名用戶在Reddit上公開記錄了他們取消訂閱的事件。讚揚Anthropic的塗鴉出現在其舊金山辦公室外,而OpenAI的辦公樓人行道上則佈滿了粉筆塗鴉。甚至連OpenAI的數百名員工此前也簽署了一封公開信,支持Anthropic拒絕接受五角大樓的要求。

QuitGPT的框架雖然在情感上頗具說服力,但並不完全準確。Anthropic本身就與Palantir和亞馬遜網絡服務公司(AWS)存在合作關係,這使得美國情報機構和國防部能夠訪問Claude模型,並且據稱這些模型曾被用於推翻委內瑞拉伊朗政府的軍事行動。人工智能和國家安全合同的倫理問題從來都不是清白的,無論在哪一方都是如此。

該活動準確地捕捉到,很大一部分用戶認為這兩家公司在設定限制方面存在著實質性的區別——並​​通過訂閱投票表達了這種看法。

這種差異是否像表面看起來那麼重要,需要仔細閱讀合同。

來源
免責聲明:以上內容僅為作者觀點,不代表Followin的任何立場,不構成與Followin相關的任何投資建議。
喜歡
收藏
評論