行政命令的核心內容:從合約糾紛到國家安全威脅的定性升級
2026年3月1日,白宮正式公布了一項引發全球科技產業震盪的行政命令:特朗普總統要求所有聯邦機構立即停止採購和使用Anthropic的全部產品與服務。這不是一項局部的合約終止,而是一次針對單一AI公司的全政府級別的封殺行動。命令涵蓋範圍之廣,從國防部到民用機構,從已部署系統到採購流程中的項目,幾乎觸及Anthropic在華盛頓的每一個觸角。
與行政命令同步發布的,是五角大樓對Anthropic的正式「供應鏈風險」認定。在美國國防採購體系中,「供應鏈風險」(supply chain risk)認定是一個具有極高法律效力和政治象徵意義的工具。這一認定的傳統使用對象,是與敵對國家政府有密切聯繫的外國企業——例如因安全疑慮被美國政府限制的華為和中興。將這一工具用於一家總部位於舊金山、由前OpenAI研究員創辦的美國本土AI公司,不僅是史無前例的,更標誌著一種根本性的話語邏輯轉變:拒絕配合政府軍事需求的企業,現在可以被等同於外國安全威脅。
據NPR和Bloomberg報導,這一系列行動的直接導火線是Anthropic在數日前正式拒絕了五角大樓提出的「最終方案」——一份價值約2億美元的軍事AI合約。該合約要求Anthropic放寬Claude模型在自主武器系統和大規模監控領域的使用限制。Anthropic執行長Dario Amodei以「良知上無法接受」為由拒絕了這一方案,認為五角大樓所謂的妥協條款在法律措辭上實質上架空了所有安全保障。
行政命令的三重打擊
- 全面採購禁令:所有聯邦機構被要求停止使用Anthropic產品,包括已部署的系統和進行中的採購流程
- 供應鏈風險認定:五角大樓將Anthropic正式列為國家安全供應鏈風險,這一標籤通常僅用於與敵對國家相關的外國企業
- 合約清算:Anthropic目前持有的約2億美元聯邦合約面臨全面終止或不予續約的命運
「供應鏈風險」認定的法律與政治邏輯
要理解五角大樓這一認定的嚴重性,需要先了解「供應鏈風險」在美國國防法律體系中的確切含義和歷史脈絡。
美國聯邦採購法規中的供應鏈風險管理框架,最初是在2010年代為應對外國政府通過技術供應鏈滲透美國國防系統的威脅而建立的。其核心邏輯是:如果某一供應商的產品可能被外國政府利用來收集情報、干擾軍事行動或危及國家安全基礎設施,國防部有權將其排除在採購名單之外。這一框架在華為5G設備爭議中得到了最廣泛的公眾關注——美國政府以供應鏈安全為由,禁止聯邦機構和關鍵基礎設施使用華為設備。
將這一框架適用於Anthropic,需要回答一個根本性的問題:一家因堅持AI安全原則而拒絕移除使用限制的美國公司,如何構成「供應鏈風險」?五角大樓的論證邏輯似乎是這樣的:Anthropic單方面設定的使用限制,使軍方無法在緊急情況下完全利用Claude的能力,從而構成了國防能力的「脆弱點」。換言之,一家供應商如果不願意將其產品的全部能力無條件交付給軍方,其產品就是「不可靠的」,而不可靠的供應商就是「風險」。
這一論證邏輯的危險性在於它的可推廣性。如果拒絕移除安全護欄等同於供應鏈風險,那麼未來任何在產品中內建倫理限制的AI公司都可能面臨同樣的認定。這不僅僅是Anthropic的問題,而是整個負責任AI發展範式的存亡之戰。多位法律學者已經指出,五角大樓的這一認定在現有法律框架下存在重大的程序和實質瑕疵——供應鏈風險認定的既有判例和法規語言,從未被設計用來處理這種情況。
「將一家因堅持產品安全設計而拒絕完全配合的美國公司列為『供應鏈風險』,這在法律上是站不住腳的,在政策上是開創了一個極其危險的先例。我們將在法庭上挑戰這一認定。」
—— Anthropic官方聲明
Anthropic的法律反擊:一場必須打的官司
面對行政命令和供應鏈風險認定的雙重打擊,Anthropic的回應是迅速而堅定的:公司宣布將在法庭上挑戰五角大樓的認定,並聘請了華盛頓最具影響力的行政法律師團隊。Anthropic的法律策略,據知情人士透露,將圍繞幾個核心論點展開。
第一,程序正當性問題。供應鏈風險認定涉及對一家企業商譽和商業利益的重大損害,必須遵循嚴格的法定程序。Anthropic的律師團隊將質疑:五角大樓是否給予了Anthropic充分的事前通知和申辯機會?認定過程中是否有獨立的技術評估?做出認定的官員是否存在利益衝突或政治動機?如果認定過程存在程序瑕疵,法院有權撤銷這一認定。
第二,實質合理性問題。「供應鏈風險」有其法定的構成要件。Anthropic將論證,一家自行設定產品使用限制的行為,不符合供應鏈風險的任何法定定義。產品安全設計是企業的合法權利,正如汽車製造商有權在其產品中安裝限速裝置而不會被認定為交通基礎設施的「風險」一樣。五角大樓不能因為一家企業拒絕移除其認為必要的安全功能,就將其等同於一個受敵國控制的安全威脅。
第三,憲法層面的言論自由和結社自由問題。在美國憲法框架下,企業擁有表達和實踐其價值觀的權利,包括在產品設計中體現特定的倫理立場。如果政府可以因企業行使這些權利而對其施加懲罰性措施,這將對第一修正案保護的核心價值構成嚴重威脅。儘管國家安全領域傳統上享有較高的司法尊重,但法院並非對政府在這一領域的行為完全放手——特別是當政府行為的真正動機不是安全,而是報復。
Anthropic稱這一認定「法律上站不住腳」(legally unsound)且「開創了危險先例」(a dangerous precedent)。這些措辭的選擇經過了精心考量——「法律上站不住腳」暗示他們有信心在法庭上勝訴,而「危險先例」則在提醒整個科技產業和公民社會:這不僅關乎Anthropic的商業利益,更關乎每一家試圖負責任地開發AI的公司的未來生存空間。
Anthropic法律挑戰的三大核心論點
- 程序瑕疵:認定過程是否遵循法定程序,是否給予充分的事前通知和申辯機會
- 實質不合理:產品安全設計不符合「供應鏈風險」的法定構成要件
- 憲法權利:政府不能因企業行使價值表達權而施加懲罰性措施
OpenAI的閃電行動:Sam Altman的「原則性軍事合作」
如果說Anthropic被封殺的消息是一枚炸彈,那麼OpenAI在消息公布僅數小時後便宣布自己的五角大樓合約,就是緊接其後的第二波衝擊波。根據TechCrunch和Bloomberg的報導,OpenAI執行長Sam Altman在聲明中宣稱,這份新合約「保留了與Anthropic相同的核心原則」。
這一宣稱值得仔細推敲。如果OpenAI真的保留了與Anthropic「相同的核心原則」——即拒絕自主武器和大規模監控的紅線——那為什麼五角大樓願意接受OpenAI而不願意接受Anthropic?邏輯上只有幾種可能的解釋。
第一種可能是,OpenAI的合約在措辭上確實包含了類似的安全限制,但在法律結構上留下了更大的靈活空間。也許五角大樓從與Anthropic的談判破裂中學到了教訓,在與OpenAI的合約中採用了不同的條款設計——看似保留了安全原則,但實際上在執行層面更具彈性。這是Anthropic之前拒絕的正是這種「以妥協之名包裝」的安排,而OpenAI也許選擇了接受。
第二種可能是,OpenAI在私下做出了Anthropic不願做出的讓步,而「保留相同核心原則」的公開聲明只是為了管理公眾形象。在AI倫理問題上,公開聲明和實際合約條款之間的差距往往比人們想像的要大。沒有看到合約全文之前,任何外部觀察者都無法確認Altman的宣稱是否與事實完全吻合。
第三種可能是最具政治意味的:五角大樓封殺Anthropic的目的,從一開始就不純粹是關於合約條款,而是關於「立威」——向整個AI產業傳遞一個信息:不配合的企業將付出代價。在這種邏輯下,OpenAI獲得合約不是因為它在原則上做了更多讓步,而是因為它願意在談判姿態上展示更多的合作意願。對五角大樓而言,打擊一家「不聽話」的公司比具體的合約條款更重要。
「我們與五角大樓的合作保留了與Anthropic所堅持的相同核心原則。我們證明了負責任的AI發展與國家安全使命並非不可兼容。」
—— Sam Altman,OpenAI執行長
無論實際情況是哪一種,OpenAI行動的時間點本身就極具敘事力量。數小時的間隔——這不是巧合,而是一場精心策劃的協同動作。在Anthropic倒下的同一天宣布自己的軍事合約,OpenAI向市場發出了一個清晰且冷酷的信號:如果你不做,總有人願意做。這是商業競爭中最古老的叢林法則,只不過這次被包裝在了「負責任AI」的修辭之下。
2億美元聯邦合約的命運:商業衝擊的連鎖反應
Anthropic目前持有的約2億美元聯邦合約,涵蓋了多個政府部門的AI應用項目。這些合約的全面終止或凍結,對Anthropic的直接財務影響是顯而易見的,但間接影響可能更為深遠。
首先是信譽效應。在企業客戶的採購決策中,「被美國政府列為供應鏈風險」是一個極具殺傷力的負面信號。即便這一認定最終在法庭上被推翻,在訴訟進行的數月乃至數年內,這個標籤將如影隨形。那些正在考慮採用Claude的大型企業——尤其是涉及政府合約或受政府監管的企業——將不得不重新評估與Anthropic的商業關係。如果與Anthropic合作可能導致自身被視為「使用了有安全風險的AI供應商」,理性的風險規避將驅使這些企業選擇替代方案。
其次是融資環境的變化。Anthropic近期剛完成了高達300億美元的融資,估值達到3800億美元。被聯邦政府封殺的消息無疑會影響投資者信心。儘管Anthropic的商業客戶基礎遠不限於政府部門,但失去聯邦合約和「供應鏈風險」標籤的雙重打擊,可能迫使投資者重新評估其風險溢價。特別是對於那些與美國國防和情報界有密切聯繫的投資者而言,繼續投資一家被五角大樓點名的公司,本身就是一種政治風險。
第三是人才競爭的影響。在矽谷的AI人才市場,Anthropic長期以來以「負責任AI」的使命感吸引了大量頂尖研究者。被政府封殺可能產生兩種截然相反的人才效應:一方面,認同安全至上理念的研究者可能因Anthropic的堅持原則而更加忠誠;另一方面,擔心公司前景的實用主義者可能開始考慮跳槽到OpenAI、Google DeepMind或其他在政府關係上更為穩健的競爭對手。
地緣政治維度:AI產業的新冷戰格局
這場封殺行動的影響遠遠超出了Anthropic一家公司的命運。它正在重塑全球AI產業的地緣政治格局,並向國際社會傳遞了一系列強烈的信號。
對歐盟而言,美國政府懲罰一家因堅持安全原則而不配合軍事需求的AI公司,與歐盟《AI法案》所追求的理念形成了尖銳的對照。歐盟的監管邏輯認為,高風險AI系統必須內建安全護欄,AI公司有義務而非權利在其產品中設置使用限制。如果遵循歐盟法規精神的AI公司在美國市場反而會受到懲罰,這將在跨大西洋AI治理合作中造成深刻的裂痕。歐洲的決策者不得不思考:在一個AI公司可能因堅持安全設計而被本國政府封殺的世界,跨國AI治理合作的基礎在哪裡?
對中國而言,這場事件具有雙重意義。一方面,美國頂尖AI公司與自己政府之間的公開衝突,為中國的國際敘事提供了素材——「看,美國自己的科技公司都不信任自己的政府」。另一方面,這也向中國的AI公司發出了一個警示:在國家安全框架下,任何國家的政府都可能對不配合的科技企業採取極端措施。中國的AI產業從未面臨類似的公開對峙,但這並不意味著類似的張力不存在。
對亞太地區和香港的企業而言,這場事件的最直接啟示是AI供應商選擇的地緣政治風險正在急劇上升。一家AI供應商的可靠性,不再僅取決於其技術能力和商業穩定性,還取決於其與本國政府的關係動態。今天,Anthropic因拒絕配合軍事需求而被封殺;明天,任何其他AI供應商都可能因不同的政治原因而面臨類似的命運。這種不確定性,使得多供應商策略和技術主權成為了企業AI戰略中越來越核心的考量。
全球AI治理的連鎖反應
- 美歐裂痕:美國懲罰安全設計,歐盟獎勵安全設計,跨大西洋AI合作基礎動搖
- 中國敘事:美國科技公司與政府的公開衝突,為地緣政治對手提供敘事素材
- 亞太風險:AI供應商選擇成為地緣政治賭注,多元化和技術主權需求上升
- 產業寒蟬效應:其他AI公司是否還敢設定產品安全限制?
歷史先例與憲法危機的陰影
在美國的科技政策史上,政府與科技企業的衝突並非沒有先例。2016年蘋果與FBI在聖貝納迪諾槍擊案iPhone解鎖問題上的對峙,至今仍被視為數位時代公民自由與國家安全之爭的標誌性案例。但Anthropic面臨的情況在幾個關鍵維度上更為嚴峻。
蘋果拒絕的是司法部通過法院命令提出的一項具體、有限的要求——為一部特定手機創建一個後門工具。這一要求有明確的法律框架,最終也因FBI找到了替代方案而擱置。相比之下,Anthropic面臨的是行政部門通過行政命令和行政認定實施的全面封殺——沒有法院命令,沒有立法授權,而是行政權力的直接行使。這種行政權力的使用方式,在美國的分權體制下更容易引發憲法爭議。
更值得關注的是「供應鏈風險」認定工具的創造性使用。這一工具在設計之初的目的是防範外國滲透,其法律語言和判例基礎都是圍繞外國威脅而建構的。將它用於一家因價值觀分歧而不配合的美國本土企業,是對該工具的功能性重新定義。如果法院認可這種擴大適用,它將為行政部門提供一個強大的新武器——任何不配合政府需求的供應商,都可以被冠以「供應鏈風險」的帽子而被排除。
在憲法層面,這場對峙還觸及了行政權力在國家安全領域的邊界問題。特朗普政府在沒有國會授權的情況下,僅憑行政命令就實現了對一家企業的全政府封殺。儘管總統在國家安全領域確實享有寬泛的自由裁量權,但這種權力並非毫無限制。法院在過去的判例中曾多次介入,限制行政部門以國家安全為名對個人和企業權利的侵犯。Anthropic的法律挑戰是否能成功,將在很大程度上取決於法院如何平衡國家安全利益與企業權利之間的關係。
AI安全研究生態的生存危機
在這場對峙的表面之下,一場更為深遠的危機正在醞釀——它關乎整個AI安全研究生態的未來存亡。
過去數年,「負責任的AI發展」從一個學術界的邊緣話題,逐步成為產業界的主流敘事。Anthropic在這一進程中扮演了特殊角色:它是第一家從誕生之初就以AI安全為核心使命的大型AI公司,其「憲法AI」(Constitutional AI)的設計理念——在模型訓練和部署中內建倫理約束——影響了整個產業的實踐方向。
如果Anthropic因堅持這一理念而被政府封殺、被市場懲罰,這將向整個AI產業和研究社群發出一個毀滅性的信號:安全是一個奢侈品,只有在不與權力發生衝突的前提下才能被承擔。這一信號的影響將遠超Anthropic一家公司——那些正在考慮在自己的產品中內建安全限制的AI公司,將不得不重新計算「堅持原則」的成本。那些正在AI安全領域從事研究的學者和工程師,將不得不質疑自己的工作是否有現實意義。
反過來說,如果Anthropic成功在法庭上推翻這一認定,或者這一事件引發足夠的公眾關注和政治反彈,迫使政府修正其做法,那麼AI安全研究的正當性將得到前所未有的強化。一場公開的、受到廣泛關注的法律對決,反而可能為AI安全原則確立堅實的法律地位——這是學術論文和企業白皮書永遠無法達到的效果。
因此,Anthropic的法律挑戰不僅僅是一場商業利益的保衛戰,更是一場關乎AI安全理念能否在現實世界的權力博弈中存活的生死之戰。它的結局,將在很大程度上定義未來十年全球AI治理的基本格調。
華盛頓時報報導揭示的政治背景
據Washington Times的報導,這場封殺行動的政治背景比表面上看起來更為複雜。特朗普政府與矽谷的關係一直處於一種微妙的緊張狀態——一方面,政府需要科技公司的創新能力來維持美國的技術領先地位;另一方面,政府對科技公司在文化戰爭和政策問題上的獨立立場深感不滿。
Anthropic被封殺的時間點,恰好處於特朗普政府加大對「不配合」科技公司施壓的更廣泛趨勢之中。一些華盛頓觀察人士認為,封殺Anthropic不僅是五角大樓對合約談判破裂的報復,更是整個政府對科技產業發出的政治信號:在國家安全問題上,科技公司的自主權是有邊界的,而這個邊界由政府來劃定。
值得注意的是,在這一政治氛圍下,Elon Musk旗下的xAI以「所有合法用途」為標準獲准進入五角大樓機密網絡的事實,更凸顯了這種政治邏輯的運作方式:願意配合的企業得到獎勵,拒絕配合的企業受到懲罰。這不是一個基於技術評估的決策過程,而是一個基於政治順從度的篩選機制。
「當一個政府因為一家企業堅持不把AI用於大規模監控和自主殺人機器而將其列為『國家安全威脅』時,我們需要認真思考:究竟是誰在威脅國家安全?」
—— 一位不願具名的前五角大樓高級官員
國會反應與立法真空的危險
在國會層面,Anthropic被封殺的消息引發了兩黨不同的反應。部分共和黨議員支持白宮的決定,認為國家安全需求應優先於企業的自行設定的使用限制;部分民主黨議員則批評這是行政權力的濫用,呼籲對供應鏈風險認定的適用範圍進行立法限制。但就目前而言,國會尚未就AI軍事應用問題形成任何具有約束力的立法框架。
這一立法真空正是當前危機的深層根源。在一個缺乏明確立法指引的領域,行政權力填補了空白——而行政權力的運用,天然地傾向於擴大自身的空間。如果國會不及時介入,建立一個關於AI軍事應用的透明、可預測的法律框架,類似的對峙將不斷重演,而每一次對峙的結果都將取決於當時的政治力量對比,而非穩定的法律原則。
多位法律學者呼籲國會盡快採取行動。他們建議的方向包括:明確供應鏈風險認定的適用範圍和程序要求,防止其被用作懲罰不配合企業的政治工具;建立AI軍事應用的倫理審查機制,確保在安全和人權之間取得平衡;以及為AI公司在產品中設置安全限制的權利提供明確的法律保護。
編輯觀點
當一個國家的政府將一家本土科技公司——僅僅因為它拒絕讓自己的AI產品被用於大規模監控和自主殺人機器——列為「供應鏈風險」,我們必須停下來,認真審視這意味著什麼。
供應鏈風險認定是一把為外敵鍛造的劍。現在,這把劍被轉向了自己人。轉向的理由不是間諜活動,不是技術竊取,不是與敵國的秘密聯繫,而是一家企業說了一個「不」字——「不,我們不會讓我們的AI在沒有人類監督的情況下決定誰生誰死。」這個「不」字,在今天的華盛頓,足以讓你被貼上與華為同等級的安全威脅標籤。
OpenAI在數小時內宣布自己的軍事合約,Sam Altman聲稱「保留了相同的核心原則」——如果這是真的,那五角大樓為什麼接受了OpenAI而封殺了Anthropic?如果「核心原則」相同,差異在哪裡?這個問題的答案,也許不在合約條款的法律細節中,而在政治順從的程度之中。「說相同的話,用不同的語氣」——這或許才是五角大樓真正想要的。
但這裡存在一個更深層的悖論。Anthropic之所以被認為是AI安全領域的領導者,正是因為它在產品安全設計上的不妥協。移除那些安全護欄的Anthropic,還是Anthropic嗎?一個願意在壓力下放棄自己核心原則的AI安全公司,它的「安全承諾」還值得信任嗎?五角大樓想要的,是一個既保持Claude的技術卓越性、又移除所有使用限制的Anthropic。但他們想要的東西,在邏輯上是一個不可能同時存在的組合——安全設計和無限制使用,如同水與油,無法真正混合。
從香港和亞太的視角看,這場事件帶來了一個冷峻但必要的提醒:在AI時代,你的技術供應商可能隨時因為與其本國政府的政治分歧而被封殺。這不是一個假設性的風險,而是一個已經發生的現實。對於任何依賴單一AI供應商的企業或機構而言,今天的Anthropic危機就是明天可能發生在任何其他供應商身上的場景。多元化、自主性和審慎的供應商選擇,不再是可選的策略考量,而是生存必需的風險管理。
Anthropic選擇了法庭。這場官司的結果將定義一個時代的基本規則:AI公司是否有權為自己的產品設定倫理邊界?還是政府可以以國家安全為名,強制移除任何它認為不便的安全設計?無論結果如何,這場對決已經在AI治理的歷史上刻下了不可磨滅的印記。我們正站在一個分岔路口,而路標上寫的不是左或右,而是一個更根本的問題:在AI的時代,安全是一種權利,還是一種特權?