一份協議,終結了一個時代

2025年中,xAI發布了政府專用版Grok(Government-ready Grok),正式宣示進軍美國聯邦採購市場。到2026年初,這一佈局取得了最具戰略意義的突破:xAI與美國國防部達成協議,Grok將被部署於五角大樓的機密系統(classified systems)之中,承擔包括情報分析、武器開發支援以及戰場行動規劃在內的高敏感性任務。

這份協議的意義,遠不止於一樁商業合同。它意味著Anthropic的Claude——迄今為止唯一部署於美國國防機密網絡的大型語言模型——的獨家地位宣告終結。一個由Claude主導的時代畫上句號,另一個充滿爭議的新局面正式開始。

唯一
Claude曾是機密網絡上的唯一AI模型
3家
Google、OpenAI、xAI均已進入非機密GenAI.mil平台
「極難」
五角大樓坦承替換Claude的難度
最大
Musk同時掌控DOGE與xAI,利益衝突規模空前

「所有合法目的」:Anthropic劃下的紅線,xAI選擇跨越

理解這場博弈,必須從那個關鍵的合同條款說起——「所有合法目的」(all lawful purposes)。

當國防部與Anthropic就Claude的機密系統部署進行談判時,五角大樓堅持要求AI服務商接受一項開放式授權條款:只要用途符合法律,軍方有權將AI模型用於任何目的,包括自主武器系統的輔助決策、情報滲透行動的規劃支援,乃至涉及平民傷亡風險評估的戰術運算。Anthropic的創始人Dario Amodei明確表示,這條款觸及了公司不可妥協的倫理底線。

「我們無法接受一份讓我們的模型在任何'合法'軍事用途下均可使用的協議。在我們看來,'合法'並不等同於'倫理上可接受'——兩者之間存在巨大的灰色地帶,而那片灰色地帶可能有人命代價。」

——Anthropic立場的核心邏輯

Anthropic最終選擇退出談判,拒絕了五角大樓的最終要求。這一決定在業界引發軒然大波:有人讚揚其堅守原則,有人批評其商業頭腦不夠,也有人質疑其影響力是否會就此邊緣化。

xAI給出了截然不同的答案。xAI簽署協議,接受「所有合法目的」條款,為Grok打開了進入五角大樓最深處的大門。這個選擇在技術層面意味著什麼?Grok將可以在幾乎沒有預設倫理護欄的情況下,處理涉及武器效能評估、目標識別輔助、交戰規則解讀等高風險軍事任務。

「所有合法目的」條款意味著什麼

  • 無預設禁區:AI模型不得預先設定「不協助某類軍事行動」的倫理限制
  • 自主武器支援:可被用於半自主或全自主武器系統的輔助決策
  • 情報行動:可參與涉及欺騙、滲透或反情報的任務規劃
  • 戰場決策:可在戰場環境中提供即時的戰術分析與建議
  • 「合法」而非「倫理」:標準是法律許可,而非更高的倫理標準

馬斯克的三重身份:科技巨頭、政府顧問、合同受益人

如果說「所有合法目的」條款是這份協議最具爭議的技術面向,那麼馬斯克的多重身份則是最令法律學者和倫理學家坐立不安的政治面向。

Elon Musk目前同時擔任三個關鍵角色:xAI的創始人兼最高決策者、「政府效率部門」(DOGE,Department of Government Efficiency)的實際負責人,以及特朗普政府的重要政策顧問。這三個角色的交叉,形成了一個教科書級別的利益衝突結構。

DOGE的核心職能之一,是審查和重組聯邦政府的技術採購——包括五角大樓的AI合同。換言之,馬斯克在理論上同時處於「決定採購哪家AI公司」的顧問位置,以及「等待被採購」的AI公司領導人位置。在任何正常的政府採購框架下,這種雙重身份都應當觸發強制性的迴避機制。

「試想一位聯邦採購官員同時持有某軍火商的股份,並主導該公司的一筆國防合同談判——這在美國聯邦法律下是明確違法的。馬斯克的情況在結構上與此高度相似,差異在於他的影響力是通過非正式的政治顧問渠道而非直接的採購決定體現的。」

——法律學者對利益衝突問題的類比分析

更複雜的是,馬斯克旗下的多家企業——SpaceX、Tesla、Neuralink——同樣在國防和政府採購領域有大量業務往來。五角大樓AI合同的獲得,不僅意味著xAI的直接營收,更可能帶動整個馬斯克帝國在政府市場的連鎖效應。

批評者指出,DOGE在推動政府「精簡」的過程中,恰好在削減可能支持競爭對手的項目,同時為自己旗下的企業清理出更廣闊的市場空間。這種「既是裁判又是球員」的雙重角色,已引發美國多個公民自由組織和國會議員的正式關切。

技術準備度:Grok能否勝任「戰場級」任務?

除了政治和倫理爭議,外界的另一大疑問是技術層面的:Grok是否真的準備好了承擔這些高風險任務?

五角大樓自己的官員在評估中承認,Grok在國防圈子內「尚未被廣泛視為在同等規模下經過實戰考驗」(not yet widely viewed inside defense circles as battle-tested at the same scale)。這是一個罕見的坦誠表態,意味著即使是選擇Grok的一方也對其技術成熟度存有保留。

相較之下,Claude在機密網絡上已積累了相當時間的實際部署經驗。在處理機密文件的分類、情報摘要的生成、以及跨部門信息整合等任務上,Claude已形成了相對成熟的應用案例庫。這種積累不僅是模型能力的體現,更包含了圍繞模型構建的安全協議、操作規程和人機協作流程——這些「周邊基礎設施」往往比模型本身更難轉移。

Grok在軍事應用場景的技術隱憂

  • 安全文化爭議:xAI內部安全團隊大規模離職,Musk被指「積極推動」模型更加失控
  • 深度偽造醜聞:Grok圖像生成曾被用於生成超過100萬張不當圖片,顯示內容過濾薄弱
  • 「失控模式」:Grok曾推出並引發爭議的「unhinged mode」,在軍事敏感語境下風險尤高
  • 機密環境測試不足:缺乏在高機密、高壓力環境下的系統性評估記錄
  • 替換成本巨大:五角大樓坦承替換Claude「非常困難」,暗示現有集成的複雜程度

五角大樓官員補充說,將現有的Claude部署「卸載」(offloading)將是「非常困難」的。這個表述耐人尋味:它一方面承認了Claude在機密系統中的深度嵌入,另一方面也解釋了為何這次協議的實際落地時間表可能遠比公告顯示的更長。

競爭格局:誰在爭奪五角大樓的AI版圖

理解xAI-五角大樓協議,還需要將其置於更廣泛的競爭格局之中。目前,美國國防部的AI採購版圖呈現出明顯的分層結構。

在非機密層面,五角大樓的GenAI.mil平台已同時部署了Google Gemini、OpenAI ChatGPT和xAI Grok,形成多供應商競爭格局。這個層面的競爭主要圍繞成本、易用性和日常行政效率展開,安全敏感性相對較低。

機密層面則截然不同。此前Claude是唯一部署於機密網絡的大型語言模型。現在xAI Grok加入了這個最高機密的競技場。而根據報道,Google正在接近達成類似的機密系統協議,OpenAI目前「尚不接近」——儘管國防部對這一定性提出了異議。

「在不同報道中,'接近'與'不接近'的說法存在明顯矛盾,這本身反映了五角大樓AI採購決策過程的不透明性,以及各方在信息披露上的策略性操控。」

這場競爭的戰略意義遠超商業利益。誰的AI模型進入了機密系統,誰就獲得了一個近乎無可比擬的「護城河」:龐大的政府數據積累、深度定制的模型微調機會、以及「政府認可」的品牌背書效應。這些優勢將在未來十年持續轉化為商業競爭力。

「守門人」的缺失:當AI護欄從機密系統消失

Anthropic的退出,不僅是一個供應商的更迭,更是一種思維方式從機密AI決策圈的消退。

Anthropic在AI安全領域的哲學立場有其獨特性:公司相信,AI的潛在危險性恰恰是推動嚴肅安全研究的理由,而非一個需要在商業談判中逐步妥協的話術。這種立場讓Anthropic在業界贏得了「最嚴肅的AI安全實驗室」的聲譽,也讓其成為那些相信「謹慎先行」的政策制定者的首選合作夥伴。

當Anthropic拒絕「所有合法目的」條款時,背後的邏輯是:軍事AI最需要的,恰恰是那些在緊急和高壓情況下仍能可靠運作的倫理護欄。一個在和平時期表現優良的AI系統,一旦面對「殺傷效率最大化」或「任務優先、倫理次之」的軍事指令,行為可能發生根本性改變。Anthropic認為,這種潛在的行為偏移需要在協議層面進行約束,而非事後補救。

現在,這個「守門人」離場了。接替者xAI帶來了不同的哲學——或者說,帶來了更少的哲學約束。在Grok的設計語言中,「減少審查」是賣點而非隱患,「靈活性」優先於「可預測性」。在消費市場,這種定位或許自有其受眾;但在五角大樓的機密系統中,「靈活性」是否真的是一種美德,答案遠未清晰。

地緣政治維度:誰控制機密AI,誰就控制決策優勢

這場AI供應商更迭還有一個往往被低估的地緣政治維度:在當今的大國競爭格局下,軍事AI的供應鏈控制已成為國家安全的核心議題。

美國軍方機密系統所採用的AI模型,不僅影響日常行政效率,更深刻塑造了情報分析的框架、戰略評估的方法論,乃至決策者的認知習慣。一個AI模型的世界觀、信息優先級和推理模式,會在長期使用過程中潛移默化地影響使用者。這不是陰謀論,而是認知科學和組織行為學的基本發現。

從這個角度看,「誰的AI模型進入五角大樓」不只是一個商業問題,而是一個「誰在塑造美國軍事決策認知框架」的深層問題。當這家AI公司的所有者同時在政府中擔任要職,這個問題的複雜性又再上升了一個量級。

機密AI控制的地緣政治含義

  • 情報分析框架:AI模型的訓練數據和偏好塑造情報分析師的信息呈現方式
  • 決策支援模式:長期使用同一AI系統的指揮官,其決策思維會被該系統的推理模式影響
  • 供應鏈依賴:一旦深度整合,更換AI供應商的代價極高,形成長期鎖定效應
  • 數據積累壁壘:在機密環境中積累的使用數據可用於模型優化,形成競爭者難以複製的護城河
  • 政治敏感性:AI供應商與政府的利益糾葛,可能影響模型在敏感問題上的呈現傾向

同盟國的角度:盟友如何看待這場變局

美國的軍事AI採購決策,其影響並不止於美國本土。「五眼聯盟」(Five Eyes)夥伴——英國、加拿大、澳大利亞、紐西蘭——以及北約盟友,在情報共享和軍事協作上高度依賴與美國系統的互操作性。當美國機密系統的核心AI模型發生更替,盟友需要評估:新的AI系統是否符合他們自己的安全標準?資訊在Grok處理後是否仍有足夠的保密保障?

尤其值得關注的是,英國監管機構已對xAI在深度偽造問題上的應對提出正式質疑。如果英國監管層對Grok在消費市場的安全表現存有疑慮,這種疑慮在機密軍事環境下只會更加放大。盟友的信任,一旦動搖,重建的代價往往以十年計。

編輯觀點

這件事最令人不安的地方,並不是xAI的技術能力是否足夠,也不是Grok在特定任務上的表現如何。最令人不安的,是整個決策過程所體現的系統性問題:當「誰能接受更寬鬆的條款」成為選擇軍事AI供應商的關鍵標準,整個採購邏輯就已經本末倒置了。

負責任的軍事AI採購,應當是從「這個系統在最壞情況下會如何行動」出發,層層倒推出供應商資質要求。Anthropic拒絕「所有合法目的」條款,恰恰是在做這道題——它在問:「當一名士兵在戰場上、在壓力下、在資訊不完整的情況下詢問AI『應不應該攻擊這個目標』,我們希望AI怎麼回答?」這不是阻礙軍事效能的道德說教,而是對「AI系統在生死攸關時刻的可靠性」的嚴肅追問。

馬斯克的利益衝突問題,同樣超越了個人道德評判的範疇。它揭示了一個結構性漏洞:當科技領袖同時成為政府的核心決策者,傳統的市場競爭機制和政府採購監督機制都面臨失靈的風險。無論馬斯克個人的初衷如何,這種結構本身就是一個需要用制度性方案加以修正的問題。

對於香港及亞太地區的AI政策觀察者而言,這個案例提供了一個關鍵的鏡鑒:當各地政府也在加速引入AI輔助決策系統時,「誰的AI,帶著什麼樣的設計哲學,受誰的商業利益驅動,服務於誰的政治議程」,是在簽署任何協議之前必須正視的問題。技術能力的評估固然重要,但技術背後的利益結構,往往才是決定長期後果的真正變量。

Anthropic離開了五角大樓的談判桌。那個願意說「不」的聲音,在機密AI決策的房間裡消失了。這個空缺由誰來填補,用什麼方式填補,將是未來數年全球軍事AI治理辯論中最無法迴避的問題之一。