一道不容商量的最後通牒

2026年2月下旬,一場足以重塑AI產業格局的對峙正在華盛頓上演。美國國防部長Pete Hegseth親自向Anthropic執行長Dario Amodei傳達了一個明確且強硬的訊息:在本週五之前,Anthropic必須同意讓Claude模型用於「所有合法的」軍事用途,否則後果自負。

這不是一場普通的商業合約談判。五角大樓在最後通牒中列出了三項可能的懲罰措施,每一項都足以對Anthropic造成毀滅性打擊:終止價值2億美元的國防合約、將Anthropic列入供應鏈風險名單,甚至援引《國防生產法》(Defense Production Act)強制其配合。三者之中,任何一項都代表著美國政府對一家科技企業前所未有的施壓力度。

「沒有任何公司應該凌駕於國會之上來制定政策。」

—— Emil Michael,五角大樓首席技術官

五角大樓首席技術官Emil Michael的這番話,清晰地勾勒出了軍方的立場:在國家安全面前,企業的自我倫理約束不應成為阻礙。這種論調將Anthropic的安全護欄從「負責任的技術選擇」重新定義為「對國家利益的妨礙」——一個極具爭議性的框架轉換。

$2億
五角大樓國防合約金額
唯一
Claude是五角大樓機密網絡中唯一的先進AI模型
2條
Anthropic堅守的安全紅線
72小時
Hegseth給出的最後通牒期限

Anthropic的兩條不可逾越紅線

面對五角大樓的極端施壓,Anthropic的回應出人意料地堅定。這家以「AI安全」為創立使命的公司明確表示,它願意在廣泛的軍事應用場景中合作,但有兩條紅線絕對不可逾越。

第一條紅線:AI自主控制武器系統。Anthropic拒絕讓Claude直接控制任何武器的發射或瞄準決策。這意味著,AI可以在後勤規劃、情報分析、通信加密等環節發揮作用,但在扣下扳機的那一刻,決策權必須留在人類手中。Anthropic的技術團隊指出,當前的AI系統——包括Claude——仍然存在幻覺(hallucination)問題和不可預測的錯誤模式,這種技術局限性使得AI在致命性決策場景中「不夠可靠」。

第二條紅線:大規模國內監控。Anthropic同樣拒絕讓Claude被用於針對美國公民的大規模監控計劃。這一立場直接觸及了美國憲法第四修正案所保障的公民權利——免受不合理搜查和扣押的自由。在後斯諾登時代,這條紅線具有深刻的歷史和法律意義。

「AI目前還不夠可靠,不足以操控武器系統。這不僅是倫理問題,更是技術現實。」

—— Anthropic 立場聲明

值得注意的是,Anthropic的立場並非全面拒絕軍事合作。相反,Claude已經在五角大樓的機密網絡中運行,並且是目前唯一一個部署在國防部機密系統中的先進AI模型。這個事實使得整場對峙更加複雜——五角大樓既高度依賴Claude,又對其使用限制深感不滿。

「供應鏈風險」認定:通常保留給俄羅斯和中國

五角大樓威脅的三項措施中,最令業界震驚的莫過於「供應鏈風險認定」(supply chain risk designation)。這一機制在美國國防採購體系中具有特殊地位——它通常被用來處理與俄羅斯、中國等對手國家有關聯的供應商,意味著被認定的企業將被視為對國家安全構成潛在威脅,從而被排除在所有國防合約之外。

將這一工具指向一家總部位於舊金山、由前OpenAI研究副總裁創立的美國AI公司,其象徵意義遠超實際操作。這等於是在說:一家因為堅持AI安全原則而設限的企業,與那些因地緣政治原因被排斥的外國實體,在本質上是等同的。

如果這一威脅被付諸實施,其連鎖效應將遠超Anthropic一家公司。它將向整個美國科技產業發出一個明確信號:在軍事應用面前,任何形式的自我約束都可能被視為不忠誠的表現。這種先例一旦確立,AI安全研究的整個生態系統都將面臨寒蟬效應。

《國防生產法》:終極施壓工具

《國防生產法》(Defense Production Act,DPA)是美國總統在國家安全緊急狀態下可以動用的一項強大法律工具。它最初在1950年韓戰期間頒布,允許政府強制私營企業優先執行國防訂單、擴大生產能力,甚至直接接管關鍵設施。近年來,DPA曾被用於新冠疫情期間的口罩和呼吸機生產,以及半導體供應鏈的強化。

將DPA應用於AI模型的使用條款限制,將是一個完全史無前例的舉動。它意味著美國政府可能會強制一家AI公司移除其自行設定的安全護欄——這不僅是技術治理的問題,更是關於企業自主權、言論自由和政府權力邊界的憲法級別辯論。

五角大樓的三重施壓手段

  • 合約終止:直接取消2億美元國防合約,切斷Anthropic與軍方的合作關係
  • 供應鏈風險認定:將Anthropic列入通常保留給俄羅斯、中國關聯企業的黑名單,全面排除國防採購
  • 援引《國防生產法》:動用戰時緊急權力,強制Anthropic移除AI安全護欄並配合軍事需求

「覺醒AI」的政治標籤

在這場技術與政治的碰撞中,國防部長Hegseth為Anthropic的立場貼上了一個鮮明的政治標籤——「覺醒AI」(woke AI)。這個措辭將一個本質上屬於技術安全和工程可靠性的議題,巧妙地轉化為了美國當前高度極化的文化戰爭的一部分。

透過「覺醒」這個標籤,Anthropic對AI武器控制和大規模監控的技術性顧慮被重新框架為一種意識形態立場——暗示這家公司是出於政治偏見而非技術審慎來拒絕軍方的要求。這種敘事策略在當前的美國政治氣候中極具殺傷力,因為它將Anthropic置於一個幾乎不可能辯護的位置:任何對安全風險的技術性解釋都可能被簡化為「覺醒精英對國防的阻撓」。

但現實遠比政治標籤所呈現的要複雜。Anthropic的立場並非源自某種抽象的道德潔癖,而是基於對AI技術當前局限性的冷靜評估。大型語言模型仍然會產生幻覺、會在壓力測試下出現不可預測的行為模式、會在邊緣情境中做出錯誤判斷。在一個涉及生死決策的軍事環境中,這些技術缺陷的後果不是用戶收到一個錯誤回答那麼簡單——而可能是誤殺平民或引發國際事件。

委內瑞拉行動:Claude的軍事實戰首秀

在這場對峙的背景中,一個此前不為公眾所知的細節浮出了水面:Claude據報已被用於美國在委內瑞拉的軍事行動,協助策劃並執行了逮捕馬杜羅(Maduro)的行動。這一披露同時為對峙的雙方提供了論據。

五角大樓方面認為,委內瑞拉行動證明了Claude在實際軍事場景中的巨大價值——如果Claude已經能夠為如此高級別的行動提供支援,那麼進一步擴展其軍事用途是合乎邏輯的。而Anthropic方面則可以指出,Claude在這次行動中的角色是情報分析和行動規劃的輔助工具,而非直接控制武器或監控系統——這恰恰印證了他們所倡導的「有限度軍事合作」模式的可行性。

委內瑞拉行動的曝光也揭示了一個更深層的問題:AI在軍事中的實際應用範圍可能遠超公眾的認知。如果Claude已經在機密行動中扮演了如此關鍵的角色,那麼圍繞其使用限制的辯論就不再是一個假設性的學術討論,而是一個直接影響全球地緣政治的現實問題。

競爭者湧入:五角大樓的AI軍備競賽

Anthropic並非五角大樓唯一的AI供應商。事實上,一場圍繞美國軍方機密系統的AI軍備競賽正在加速展開。xAI的Grok、OpenAI的ChatGPT和Google的Gemini都已進入或正在進入五角大樓的各級系統。

在GenAI.mil非機密平台上,Google的Gemini最先部署,xAI的Grok隨後跟進,OpenAI的ChatGPT最近才加入。三家公司都已同意「所有合法用途」的條款,這使得Anthropic成為唯一堅持設限的「異類」。

這種競爭格局對Anthropic構成了額外的壓力。如果Claude因為拒絕配合而被排除在五角大樓的系統之外,其競爭對手將填補這一空缺。對軍方而言,Anthropic的退出短期內或許會造成不便——畢竟Claude是目前機密網絡中唯一的先進AI模型——但長期來看,替代方案並不缺乏。這使得Anthropic在談判中的議價能力持續被削弱。

  • xAI Grok:已進入GenAI.mil平台,並積極爭取機密網絡部署資格
  • OpenAI ChatGPT:已部署於GenAI.mil,2億美元合約,接受所有合法用途條款
  • Google Gemini:GenAI.mil首批部署模型,同意無限制軍事用途
  • Anthropic Claude:唯一在機密網絡運行的先進模型,但尚未加入GenAI.mil,堅持兩條紅線

AI治理的分水嶺時刻

這場對峙的結果,無論走向何方,都將成為AI治理歷史上的一個分水嶺。如果Anthropic屈服於壓力,放棄其安全紅線,它將向整個AI產業傳遞一個訊號:在政府壓力面前,企業的自我約束毫無意義。這將從根本上削弱AI安全研究社群多年來建立的治理框架,並使得其他AI公司更加不願意主動設定任何使用限制。

反之,如果Anthropic堅守立場並承受可能的後果,它將成為AI倫理堅持的標誌性案例——但代價可能是失去美國最大的國防客戶、面臨供應鏈黑名單的污名,以及在與競爭對手的市場爭奪中處於劣勢。

更值得關注的是,這場對峙揭示了一個被長期忽視的制度性缺口:當政府與AI企業在技術部署的倫理邊界上產生根本性分歧時,應該由誰來仲裁?目前沒有任何法律框架或獨立機構能夠有效處理這類爭議。國會尚未就AI的軍事應用制定全面性的立法,法院系統也缺乏處理此類新型技術治理問題的先例。

在這個制度真空中,權力的天平自然傾向於擁有強制力的一方——即政府。但如果政府可以在沒有立法約束的情況下,單方面迫使AI公司移除安全護欄,那麼所謂的「負責任AI開發」就只是一句空話。諷刺的是,五角大樓CTO Emil Michael的那句「沒有公司應該凌駕於國會之上制定政策」,恰恰也適用於行政部門本身——在國會尚未就AI軍事應用立法的情況下,行政部門是否有權單方面定義AI的可接受使用範圍?

全球影響與連鎖反應

這場對峙不僅是美國國內的政策辯論,其結果將對全球AI治理產生深遠影響。

對歐盟而言,美國政府強制AI企業移除安全護欄的先例,將與歐盟《AI法案》所倡導的「高風險AI系統必須內建安全措施」的原則形成直接衝突。如果美國走向強制軍事化的路徑,歐盟和美國在AI治理理念上的分歧將進一步擴大。

對中國而言,這場對峙印證了一個長期論點:AI技術最終無法脫離國家權力的掌控。無論美國AI公司如何標榜自身的獨立性和倫理承諾,在國家安全的旗幟下,它們終究需要服從政府的意志。這一觀察對全球AI技術競爭的格局認知具有重要啟示。

對香港和亞太地區而言,這場對峙提醒我們,AI技術的發展從來都不是純粹的技術問題。在選擇AI供應商和合作夥伴時,企業和政府需要考慮的不僅是技術性能和價格,還包括供應商所面臨的地緣政治壓力、其安全承諾的可持續性,以及技術治理框架在政府壓力下的韌性。

編輯觀點

Anthropic與五角大樓的對峙,表面上是一場2億美元合約的商業博弈,實質上卻是AI時代最根本的權力問題的一次公開攤牌:當最強大的技術遇上最強大的國家機器,誰有權決定技術的使用邊界?

Hegseth將Anthropic的安全護欄貼上「覺醒AI」的標籤,是一種精明但危險的策略。它將一個嚴肅的技術安全議題簡化為文化戰爭的素材,在政治極化的氛圍中贏取了短期的敘事優勢,但代價是犧牲了理性討論AI軍事應用風險的空間。Anthropic所堅持的兩條紅線——不讓AI自主控制武器、不參與大規模國內監控——不是什麼激進的意識形態主張,而是基於對AI技術現有局限性的工程判斷和對公民權利的基本尊重。

供應鏈風險認定的威脅尤其令人不安。將一項原本用於防範外國對手滲透的國安工具,轉向一家因堅持安全原則而「不夠配合」的本國企業,這種做法如果成為先例,其寒蟬效應將遠超AI領域。它傳達的訊息是:在國防需求面前,企業的任何異議都可能被視為對國家安全的威脅。

從技術治理的角度看,這場對峙暴露的最大問題並非任何一方的對錯,而是制度性缺失。美國國會至今未能就AI的軍事應用建立全面的法律框架,這導致行政部門(五角大樓)和私營企業(Anthropic)各自按照自己的邏輯行事,卻沒有一個共同認可的裁判機制。解決這個問題的正確路徑不是通過最後通牒和威脅,而是通過國會立法和公開的民主辯論。

無論週五之後結果如何,這場對峙已經永久性地改變了AI產業的遊戲規則。它告訴每一家AI公司:你所設定的安全護欄,終有一天可能面臨國家權力的正面衝擊。在那一天到來時,你的護欄是堅如磐石,還是不堪一擊?這個問題的答案,將決定AI時代的未來走向。