5:01pm
五角大樓設定的週五最後期限
2條
Amodei死守的安全紅線
零進展
Anthropic評估「最終要求」的實質效果
決裂
科技公司對抗國防機器的歷史先例

「最終要求」的誕生:從談判桌到最後通牒

事情的發展比外界所想像的更為戲劇化。在過去數週的拉鋸之後,五角大樓方面終於拋出了他們所謂的「最終妥協方案」,並設定了週五下午5:01這個精確到分鐘的最後期限,要求Anthropic作出回應。這個時間點本身已是一種訊號——精確的行政截止時間,帶著濃烈的強迫性意味。

然而,Anthropic的內部評估卻得出了截然相反的結論。在仔細審閱五角大樓提出的新合約語言之後,Anthropic的法律和技術團隊發現,這份所謂的「妥協方案」在形式上看似讓步,實質上卻是一個精心設計的文字陷阱。Amodei的聲明毫不留情地指出:五角大樓提出的修訂合約語言「以妥協之名包裝,卻輔以法律術語,使那些安全保障措施隨時可被置之不理」。

換言之,Pentagon所謂的「妥協」,不過是用更精緻的措辭包裝了原來的要求——保留了所有讓Anthropic無法接受的核心條款,只是在表面上加了一層隨時可以拆除的偽裝。

「Anthropic在良知上無法接受五角大樓的最終要求。他們所提出的新合約語言,以妥協之名包裝,卻輔以法律術語,使那些安全保障措施在任何時候都可以被置之不理。這份『最終要求』幾乎沒有取得任何實質進展。」

—— Dario Amodei,Anthropic執行長

「幾乎沒有取得任何實質進展」——這句話是對數週談判的冷峻總結,也是對五角大樓誠意的公開質疑。在外交措辭充斥的商業世界,這樣直白的表述本身就是一種宣戰。

兩條紅線:Amodei不可逾越的倫理邊界

要理解這場對峙的核心,必須清楚Anthropic究竟為何拒絕讓步。這不是一場關於合約金額或條款細節的商業談判,而是關於兩個根本性問題的原則之爭。

第一條紅線:對美國公民的大規模監控。Anthropic拒絕讓Claude被用於任何針對美國國內公民的大規模監控系統。這條線的背後,是美國憲法第四修正案所保障的公民自由,是後斯諾登時代社會對政府監控能力的深刻警惕,也是對AI技術被用於建構全景式監控國家這一前景的根本性反對。在數位時代,一個能夠即時處理海量通訊數據、分析行為模式、預測個人意圖的AI系統,其監控潛力遠超任何歷史上的情報工具。Anthropic認為,讓Claude扮演這一角色,是對民主社會基本價值的背叛。

第二條紅線:完全自主武器系統,即「殺戮鏈」中沒有人類的情況。Anthropic拒絕讓Claude在沒有人類決策者介入的情況下,直接控制具有致命性的武器系統。「殺戮鏈中沒有人類」(no human in the loop)這個概念,在軍事倫理學中已有長期的辯論歷史,而Anthropic的立場是:當前的AI技術,包括最先進的大型語言模型,尚不具備在極端環境下做出可靠致命性決策所需的穩定性與可預測性。幻覺問題、分佈外場景的失誤、對抗性輸入的脆弱性——這些技術現實使得完全自主的AI武器在今天依然是一個危險的構想。

Anthropic兩條不可逾越的紅線

  • 大規模監控美國公民:拒絕讓Claude成為針對國內公民的全景式監控工具,保護憲法第四修正案賦予的公民自由
  • 完全自主致命武器:拒絕在「殺戮鏈」中移除人類決策者,堅持AI武器系統必須保留人類最終控制權

值得注意的是,Anthropic並非全面拒絕軍事合作。恰恰相反,Amodei主動提出了一個中間方案:Anthropic願意協助開發用於飛彈防禦的AI系統。這一提議本身具有深刻的象徵意義——飛彈防禦是防禦性的、以保護平民生命為目標的軍事應用,與主動進攻性的自主武器系統存在本質區別。Anthropic試圖以此表明:他們的拒絕不是反軍事情緒,而是基於特定應用場景的技術和倫理判斷。

Emil Michael的反擊:「說謊者」與「上帝情結」

五角大樓首席技術官Emil Michael對Anthropic拒絕的回應,其措辭之激烈令整個科技產業震驚。他直接稱Dario Amodei為「說謊者」,指控他擁有「上帝情結」,並聲稱Amodei正在「將我們國家的安全置於危險之中」。

這種人身攻擊式的回應,超出了政府官員在商業爭端中通常採用的語言邊界,但它所揭示的不僅僅是情緒化的憤怒。「上帝情結」的指控,本質上是在說:Amodei憑什麼以一個企業家的身份,為整個國家決定什麼樣的AI應用是可以接受的?這個問題觸及了整場爭議最深層的權力邏輯:誰有資格在AI軍事應用的倫理邊界問題上,具有最終的話語權?

「Amodei是個說謊者,有上帝情結,正在將我們國家的安全置於危險之中。」

—— Emil Michael,五角大樓首席技術官

從戰略角度分析,Michael的激烈措辭可能是一種刻意為之的施壓策略——通過公開的個人攻擊,製造社會壓力,迫使Amodei在輿論面前做出讓步。但這一策略的效果存疑:對一個已經決定「在良知上拒絕」的人進行人身攻擊,往往會強化而非軟化他的立場。更重要的是,這種攻擊方式在同情Anthropic立場的科技社群和公民自由倡導者中,可能適得其反地增強了對Anthropic的支持。

矛盾的威脅:安全風險還是國家必需品?

在所有這場對峙中最引人深思的,是五角大樓對Anthropic所發出的兩項核心威脅之間存在的根本性矛盾。Amodei在聲明中以罕見的犀利語氣直接點破了這一矛盾:

「針對我們的威脅本質上是自相矛盾的:其中一項將我們定性為安全風險;另一項則將Claude定性為國家安全的必需品。」

—— Dario Amodei

這個邏輯悖論值得細細品味。五角大樓同時揮舞著兩把劍:第一把是「供應鏈風險認定」——這一工具通常保留給與俄羅斯、中國有關聯的企業,暗示Anthropic是國家安全的潛在威脅;第二把是援引《國防生產法》(Defense Production Act,DPA)——這一戰時緊急法律允許政府強制調配「對國家安全至關重要」的資源,暗示Claude是不可或缺的國防資產。

一家公司怎麼可能同時是安全威脅又是不可或缺的國防資產?這兩種定性的共存,暴露了五角大樓在這場談判中的根本矛盾:他們既想排除Anthropic、又無法真正承受失去Claude的代價。這也解釋了為什麼Anthropic的議價能力並非為零——儘管五角大樓的威脅聽起來咄咄逼人。

《國防生產法》的援引尤其值得關注。DPA最初在1950年韓戰期間頒布,此後曾被用於強制生產口罩、呼吸機,以及強化半導體供應鏈。將DPA應用於強制一家AI公司移除其自行設定的安全護欄,不僅是前所未有的,更涉及企業自主、言論自由和行政權力邊界的憲法級別問題。正如一位退役將領所指出的:五角大樓此舉「正在Anthropic身上畫上靶心」——以戰時緊急法律框架一家因堅持安全原則而拒絕配合的本國企業,所設定的法律和政治先例,其影響將遠超這一個案。

業界聲援:Sam Altman的「紅線」表態

在科技業界,Anthropic的決定並非孤立無援。OpenAI執行長Sam Altman公開發表聲明,表示支持Anthropic所堅守的「紅線」。這一表態具有多重意義。

首先,Altman和Amodei之間的關係有著複雜的歷史背景——Amodei曾是OpenAI的研究副總裁,後來因安全理念分歧而離開並創立Anthropic。在商業上,OpenAI和Anthropic是直接競爭對手,雙方在大型語言模型市場上爭奪企業客戶、政府合約和人才資源。在這樣的背景下,Altman選擇公開支持Anthropic,而非趁機奪取五角大樓客戶,這本身就是一個非同尋常的信號。

這一信號所傳遞的訊息是:自主武器和大規模監控這兩條紅線,不僅僅是Anthropic一家公司的個別立場,而是AI產業中一個更廣泛的共識——即便是競爭對手,也認為某些界限不應被跨越。這種跨公司的原則性連帶,為Anthropic的立場提供了額外的正當性,並使五角大樓難以將這場衝突簡單定性為一家頑固企業的個人行為。

xAI填補空缺:Claude獨佔機密網絡的時代終結

然而,有人支持Anthropic的立場,也有人準備好填補它可能留下的空缺。就在Anthropic-五角大樓對峙最激烈的時期,Elon Musk旗下的xAI悄然完成了一項具有歷史意義的交易:以「所有合法用途」為標準,獲得了進入五角大樓機密網絡的權限。

這意味著,Claude作為五角大樓機密網絡中唯一先進AI模型的獨特地位,即將走入歷史。那個「Claude獨佔機密系統」的時代正在終結。

xAI的策略與Anthropic形成了鮮明對比。Grok接受了「所有合法用途」的寬泛標準,沒有設定任何關於武器控制或監控的特定限制。這為五角大樓提供了一個清晰的替代選項——一個更「配合」的AI合作夥伴,願意在更少約束的條件下運作。對五角大樓而言,xAI的加入大幅降低了在與Anthropic的對抗中承受代價的壓力。

Anthropic對此局面並非毫無自知之明。Amodei在聲明中明確表示,如果五角大樓最終決定轉向其他供應商,Anthropic「將致力於實現向另一供應商的平穩過渡」。這句話既是禮讓,也是清醒——承認了自己在談判中的弱勢地位,同時也表達了對機構穩定性的負責任態度。

歷史性的決定:一家公司說「不」的時刻

從更宏觀的歷史視角審視,Anthropic的這個「不」字具有超越商業和法律層面的意義。在AI技術發展的這個關鍵節點,這是一家私營科技公司向世界最強大的軍事機器公開拒絕的第一個重大案例。

歷史上不乏科技公司與政府在安全和倫理問題上發生衝突的先例。蘋果公司在2016年拒絕配合FBI解鎖聖貝納迪諾槍擊案涉案者的iPhone,是一個廣為人知的類比。但Anthropic面臨的情況在幾個關鍵維度上更為複雜:涉及的是軍事應用而非執法,威脅的規模更大(DPA的援引),而且Anthropic的技術已在對方的系統中實際運行。

退役將領的警告——五角大樓此舉是在「Anthropic身上畫靶心」——點出了這場對峙的更廣泛含義。一旦政府成功通過強制手段迫使一家AI公司移除安全護欄,未來任何試圖設定使用限制的AI公司都將面臨同樣的壓力。這不僅是Anthropic一家公司的問題,而是整個AI安全研究生態的生死攸關之戰。

全球AI治理的裂變時刻

這場對峙在全球AI治理層面所引發的衝擊波,同樣不容小覷。

在歐盟,《AI法案》的立法者正在密切關注這場對峙的走向。美國政府強制移除AI安全護欄的做法,與歐盟「高風險AI系統必須內建安全措施」的監管原則存在根本性衝突。如果美國確立了「國家安全需求凌駕於AI安全設計之上」的先例,美歐在AI治理理念上的鴻溝將進一步擴大。

對亞太地區——包括香港——而言,這場對峙提出了一個緊迫的實用問題:在選擇AI技術供應商時,企業和機構必須評估的已不僅是模型的技術性能,還包括供應商所處的地緣政治環境、其安全承諾在政府壓力下的可持續性,以及其合約條款可能隨政治風向變化的風險。一家今天聲稱堅守安全紅線的AI公司,如果明天因政府壓力而被迫放棄這些承諾,依賴其技術的用戶將面臨何種連帶風險?

更深層次的問題是:在一個AI能力日益強大的世界,誰有資格為AI的軍事應用劃定邊界?國會立法者、行政部門官員、AI公司創辦人、軍事倫理學家,還是公民社會?目前的現實是,在立法真空中,這個問題的答案由最強大的一方單方面決定——而這正是Anthropic與五角大樓的對峙所暴露的最根本的制度性缺陷。

編輯觀點

週五下午5:01的截止時間已經過去。Dario Amodei發出了那個「在良知上無法接受」的拒絕。歷史的某一頁,就在這個精確的時刻翻了過去。

我們正在目睹的,是AI時代第一場真正意義上的「公司對國家」的倫理對決。不是在法庭上,不是在立法院,而是在一份合約的措辭之間,在一個截止時間的前後。這種對決的形式本身,已經揭示了當前AI治理體系的深重危機:如此重大的問題,正在以如此臨時和即興的方式被「解決」。

Emil Michael稱Amodei有「上帝情結」,這個指控值得認真思考。決定哪些AI應用是可接受的,確實是一種巨大的權力。但問題是:這種權力如果不由AI公司行使,就必然由某個其他機構行使。在美國國會尚未就AI軍事應用立法、國際社會尚未達成任何有約束力的共識的今天,「上帝情結」是任何一方都無法迴避的宿命——無論是拒絕讓步的Amodei,還是以最後通牒施壓的五角大樓。

五角大樓的矛盾威脅——同時將Anthropic定性為安全威脅和國家必需品——是整場對峙中最誠實的時刻。它暴露了一個不願明說的事實:五角大樓需要Claude,但他們更需要一個沒有邊界的Claude。而Anthropic的立場所堅持的,恰恰是:有邊界的Claude,才是真正有價值的Claude。

xAI填補空缺、Claude獨佔機密網絡時代的終結,為這場對峙增添了一層悲劇色彩。堅守原則是有代價的,而在競爭激烈的AI市場,這個代價可能以失去合約、失去算力資源、失去戰略地位的形式呈現。Anthropic是否能夠在承受這些代價的同時,維持其技術競爭力和商業生存能力,將是未來數月最值得關注的問題。

從香港和亞太地區的視角看,這場對峙最重要的啟示也許是:在AI時代,技術採用決策已不可避免地具有地緣政治維度。選擇哪一家AI供應商,意味著接受哪一種政治生態和法律風險。在一個AI供應商可能被本國政府強制改變其產品安全設計的世界,「技術中立」是一個越來越奢侈的幻想。

Anthropic說了「不」。這個「不」字,無論最終換來何種結局,都已成為AI治理史上一個無法抹去的坐標。