倫理危機:五角大廈對下達最後通牒,重構國家安全與矽谷指令
28/02/2026
五角大樓與的合約危機:矽谷倫理與國家安全之爭
2026年2月27日,美國國防部向人工智慧公司Anthropic發出最後通牒:必須取消對其Claude AI模型在軍事應用上的所有限制,否則將終止一份價值2億美元的合約。這場始於技術倫理條款的爭執在24小時內迅速升級。總統特朗普透過Truth Social平臺下令所有聯邦機構停止使用Anthropic技術,國防部長皮特·赫格塞斯則將這家矽谷公司列為供應鏈風險。同日,OpenAI執行長薩姆·奧特曼在內部會議上透露,他們正與五角大廈談判一份包含安全紅線的協議。這場衝突成為生成式AI技術商業化以來,科技公司與美國軍事機構之間最公開的一次權力博弈。
合同危机的爆發與升級
危機的導火索藏在技術協議的細節裏。根據《財富》雜誌獲取的內部信息,Anthropic與五角大樓的矛盾集中在三項被該公司稱為紅線的限制條款:禁止將AI用於國內大規模監控、禁止用於完全自主的致命性武器系統、禁止在沒有人類監督的情況下進行關鍵決策。這些條款被寫入了Anthropic通過數據公司Palantir提供給國防部的Claude AI模型中。
2月25日,國防部長赫格塞斯向Anthropic發出最後通牒,要求其在週五前移除這些限制,否則合約將被終止。赫格塞斯在公開聲明中強調,國防部需要的AI模型必須能夠用於所有合法目的。2月26日,Anthropic聯合創始人兼CEO達里奧·阿莫代伊在公司部落格上回應,稱某些AI應用完全超出了當前技術能夠安全可靠執行的範圍。這種公開對抗激怒了特朗普政府。27日,特朗普在Truth Social上發文:我命令美國政府的每一個聯邦機構立即停止使用Anthropic的所有技術。我們不需要它,不想要它,也不會再和他們做生意!他同時給予國防部六個月過渡期來移除Anthropic的系統。
更嚴厲的制裁接踵而至。赫格塞斯宣布將Anthropic列為供應鏈風險——這一法律認定此前通常只用於被視為對美國國家安全構成直接威脅的外國科技公司。Sky News的分析指出,這一舉動意味著Anthropic可能面臨更廣泛的政府業務禁令和審查。危機的公開化速度超出了許多人預期。就在幾個月前,Claude AI還是五角大樓AI優先戰略的核心組成部分,被用於敏感軍事規劃和行動,包括2026年1月策劃抓捕委內瑞拉總統尼古拉斯·馬杜羅的馬文智能系統。
五角大楼的需求與矽谷的倫理
從戰略角度看,這場衝突是兩種邏輯體系的碰撞。五角大樓的立場基於其AI優先的國防現代化戰略。國防部官員私下向媒體透露,生成式AI在情報分析、後勤規劃、網絡防禦、模擬訓練和快速決策支援方面有變革潛力。Claude AI作為當時唯一獲准在五角大樓內部廣泛部署的前沿模型,已整合進多個關鍵系統。要求所有合法用途的存取權限,反映的是軍事機構對技術工具可靠性的根本需求——在作戰環境下,他們不能接受一個會在關鍵時刻拒絕執行任務的AI系統。
Anthropic的立場根植於其創立背景。這家公司由一群因安全擔憂而從OpenAI離職的研究人員於2021年創立,其核心文化強調可操縱AI和憲法AI理念,即將倫理準則直接編碼進模型的行為約束中。阿莫代伊本人是AI安全領域的知名倡導者,曾多次在國會聽證會上警告不受控制的AI軍事化風險。公司內部文件顯示,Anthropic擔心的具體場景包括:AI驅動的面部識別系統被用於針對國內抗議者的大規模追蹤;自主無人機系統在無人類干預的情況下做出殺傷決定;以及AI在情報分析中產生無法追溯的偏見,導致錯誤的目標識別。
OpenAI的介入讓局面更加複雜。2月28日,薩姆·奧特曼在X平台上宣布,已與國防部達成一項原則性協議,允許後者使用OpenAI的模型,但附有保障措施。奧特曼明確寫道:我們兩個最重要的安全原則是禁止國家級大規模監控,以及在武力使用(包括自主武器系統)中保持人類責任。他透露,五角大樓贊同這些原則,在其立法和政策中體現了這些原則,我們也將其納入了協議。根據《財富》獲取的OpenAI內部會議紀要,奧特曼告訴員工,政府同意OpenAI構建自己的安全堆疊——一套介於強大AI模型與現實使用之間的技術、政策和人工控制分層系統。如果模型拒絕執行某項任務,政府不會強迫OpenAI使其執行。
產業分裂與地緣政治影響
這場爭端正在矽谷內部製造裂痕。超過400名來自谷歌和OpenAI的員工簽署公開信,呼籲AI行業團結起來反對國防部的立場。信中寫道:允許AI系統在沒有明確保障的情況下用於監控和自主武器,將開創一個危險的先例,損害全球對這項技術的信任。但另一方面,包括Palantir在內的國防承包商公開支持五角大樓的立場,認為商業AI公司無權對政府如何使用合法獲取的工具施加單方面限制。
地緣政治維度讓情況更加微妙。OpenAI內部會議紀要提到,公司領導層在談判中最擔憂的方面之一是外國監控問題,特別是擔心AI驅動的監控會威脅民主。但紀要也承認了一個現實:各國政府確實會對國際對手進行監控,國家安全官員沒有國際監控能力就無法開展工作。會議中特別提到了威脅情報報告,顯示中國已經在使用AI模型針對海外的異見人士。這種認知創造了一種矛盾心態:矽谷公司既想堅持倫理原則,又擔心過度限制會削弱美國相對於競爭對手的技術優勢。
歐洲和亞洲的盟友正在密切關注事態發展。英國Sky News的報道指出,特朗普政府對Anthropic的強硬反應既關乎權力,也關乎AI安全。如果美國最先進的AI實驗室拒絕與軍方無限制合作,而中國等競爭對手的AI公司沒有類似約束,這可能改變軍事AI領域的競爭平衡。一些北約國家的國防官員私下表示,他們也在評估本國AI軍事化政策的倫理框架,美國的這場爭端為他們提供了重要的參考案例。
未來走向:技術主權與商業模式的重塑
這場危機可能永久改變AI行業與政府的關係。五角大樓的2億美元合約對Anthropic而言並非不可替代,但被列為供應鏈風險和聯邦政府全面封殺,將對公司的商業前景、人才招募和資本市場估值產生深遠影響。對於整個行業,一個根本性問題浮出水面:當一項技術同時具備巨大商業價值和國家安全重要性時,私營公司應該在多大程度上保留控制權?
OpenAI選擇的路徑——透過談判達成包含具體技術保障的協議——可能成為一種折中模板。奧特曼在內部會議上強調,OpenAI將保留對技術保障如何實施、哪些模型在何處部署的控制權,並將部署限制在雲環境而非邊緣系統。在軍事語境中,邊緣系統可能包括飛機和無人機等作戰平台。這種可控接入模式能否滿足五角大樓的實戰需求,仍有待觀察。
更深層的影響在於技術主權的概念。特朗普政府將一家美國本土的頂級AI公司列為風險,這打破了傳統上國內技術即安全技術的假設。它可能推動國防部加速投資內部AI研發能力,或更傾向於與那些所有權結構更簡單、更易控制的國防承包商合作。長期來看,這場爭端可能催生兩套獨立的AI技術生態:一套是受嚴格倫理約束的商業AI,另一套是專為國家安全需求設計的、規則不同的政府AI。
華盛頓與矽谷之間的這場對峙尚未結束。六個月的過渡期給了雙方迴旋餘地,但核心矛盾——國家安全所需的靈活性與技術倫理要求的約束性——不會輕易消失。這場始於一份技術合同條款的爭論,已經演變為關於AI時代權力分配、責任歸屬和技術治理的全國性辯論。其結果不僅將決定幾家公司的命運,更將塑造未來十年人工智能與人類社會共處的規則。