當AI學會了「核博弈」

冷戰時期,核威懾理論的核心假設是:只有人類領導者能夠進行足夠複雜的戰略推理,來應對核危機中的生死抉擇。博弈論中的「相互確保毀滅」(MAD)、「梯級升級」、「二次打擊能力」等概念,被認為需要深度的歷史知識、情境判斷和道德考量。

然而,2026年2月發表於arXiv的這篇論文徹底動搖了這一假設。研究人員將多個前沿AI模型置於精心設計的模擬核危機場景中,測試它們的決策模式和推理能力。結果令人震驚:這些模型不僅能夠理解核危機的基本邏輯,還展現出令人意外的複雜地緣政治推理。

研究方法與核心發現

該論文的研究設計嚴謹而系統。研究人員構建了多個假設性的核危機場景,涉及不同的地緣政治背景、軍事態勢和外交條件,然後讓前沿AI模型分別扮演不同國家的決策者角色。

研究核心發現

  • 複雜推理:AI模型能夠進行多步驟的戰略推演,考慮對手反應和長期後果
  • 歷史類比:模型會援引歷史先例(如古巴導彈危機)來支撐其決策邏輯
  • 升級管控:部分模型展現出對「梯級升級」風險的認識,傾向選擇降低緊張局勢的選項
  • 不一致性:同一模型在不同條件下可能做出截然相反的決策
  • 缺乏穩定性:微小的提示詞變化可能導致決策從「和平解決」轉向「先發制人打擊」

最後兩項發現尤為令人擔憂。如果AI系統被用於輔助真實的軍事決策,其推理的不穩定性和對提示詞的敏感度可能帶來災難性後果。在核危機中,錯誤的判斷沒有「撤銷鍵」。

OpenAI與五角大樓的GenAI.mil

這篇論文的發表時間頗具深意。就在不久前,OpenAI與美國國防部簽署了合作協議,為五角大樓提供名為GenAI.mil的生成式AI平台。這標誌著全球最知名的AI公司正式進入軍事領域。

OpenAI曾經在其憲章中明確表示不參與軍事應用。然而,2024年該公司悄然修改了使用政策,刪除了禁止軍事用途的條款。GenAI.mil的部署是這一政策轉向的直接結果。

GenAI.mil的已知功能

  • 情報分析與報告生成
  • 軍事文件的處理和摘要
  • 後勤規劃優化
  • 跨語言通訊支援

官方表示,GenAI.mil目前僅用於非作戰性的「行政和分析」任務。但批評者指出,一旦軍事機構習慣了AI輔助決策,將其應用範圍擴展到更敏感的領域只是時間問題。

自主武器系統的陰影

arXiv論文的發現觸及了一個更深層的問題:AI在自主武器系統中的角色。

當前,全球軍事AI的發展正在以驚人的速度推進。從無人機群到網絡攻擊系統,從情報分析到指揮控制,AI正在滲透到軍事行動的每一個環節。聯合國關於致命性自主武器系統(LAWS)的討論已經持續多年,但至今未能達成有約束力的國際條約。

全球軍事AI發展現況

  • 美國:Project Maven(情報分析)、Replicator計劃(自主無人系統)、GenAI.mil
  • 中國:積極發展AI輔助指揮控制系統和自主無人載具
  • 以色列:在加沙衝突中使用AI輔助目標識別系統
  • 俄羅斯:開發AI驅動的電子戰和網絡攻防系統
  • 全球趨勢:軍事AI支出預計到2030年達到每年500億美元以上

核心倫理問題:AI應該參與生死決策嗎?

arXiv論文引發的最根本問題是:AI是否應該被允許參與任何層級的核武器相關決策?

支持者的論點

支持AI參與軍事決策的人士認為:

  • AI可以在極短時間內處理海量情報,提供人類無法企及的態勢感知能力
  • AI不受情緒影響,在高壓環境下可能做出更理性的判斷
  • AI輔助可以減少人為誤判導致的意外升級風險
  • 如果對手正在使用AI,不使用AI將處於戰略劣勢

反對者的論點

然而,論文的發現恰恰削弱了上述論點:

  • AI模型的推理不穩定性意味著其「理性」不可依賴
  • 提示詞敏感度問題在軍事環境中可能被對手利用(「對抗性提示注入」)
  • AI缺乏對人類生命的真正理解,無法承擔道德責任
  • 核決策的「不可逆性」要求絕對可靠,而目前的AI技術無法提供這種保證
  • 軍事AI競賽可能降低核武器使用的門檻

國際人道法的一個基本原則是「有意義的人類控制」(meaningful human control),即在致命力量使用的決策鏈中必須有人類的實質性參與。arXiv論文的發現提示我們,即使AI只是作為「顧問」角色,其推理的不可預測性也可能從根本上削弱人類對決策過程的控制。

AI安全研究的新維度

這篇論文也為AI安全研究開闢了一個重要的新維度。此前,AI安全的討論主要集中在幾個領域:模型對齊(alignment)、幻覺(hallucination)、偏見(bias)和濫用(misuse)。軍事決策場景下的AI安全,引入了一系列全新的風險因素。

軍事AI安全的獨特挑戰

  • 對抗性環境:與民用場景不同,軍事場景中存在主動嘗試操縱AI的對手
  • 時間壓力:核危機的決策窗口可能只有幾分鐘,無法進行人工覆核
  • 不可逆後果:錯誤決策的後果無法挽回
  • 保密需求:軍事AI系統的安全審計受到保密限制
  • 級聯效應:多方同時使用AI可能產生不可預測的系統性風險

國際社會的回應

面對軍事AI應用的快速推進,國際社會的反應呈現分化態勢。

歐盟的《AI法案》(AI Act)雖然是全球最全面的AI監管框架,但明確將軍事和國防應用排除在監管範圍之外。美國、中國等主要軍事大國更不可能自願限制軍事AI的發展。聯合國框架下的致命性自主武器系統談判進展緩慢。

一些AI研究人員和前軍事官員呼籲建立專門的國際機制,至少在核武器決策這一最敏感的領域,禁止AI的直接參與。然而,驗證和執行這類協議的技術難度極高——如何確定一個國家是否在核指揮控制系統中使用了AI?

對香港AI社群的反思

雖然香港並非軍事AI的直接參與者,但這一議題對香港的AI研究社群和政策制定者同樣具有深遠意義。

首先,AI倫理教育需要將軍事應用納入討論範圍。香港的大學AI課程應當讓學生思考技術的雙重用途問題——同樣的自然語言處理技術,既可以為客服機器人提供支持,也可以被用於軍事情報分析。

其次,作為國際金融中心,香港的投資者需要關注軍事AI相關的ESG風險。投資於軍事AI供應鏈的企業,未來可能面臨聲譽風險和監管不確定性。

最後,AI安全不僅僅是技術問題,更是治理問題。arXiv這篇論文提醒我們,AI能力的增長速度可能已經超過了人類建立相應治理框架的速度。在AI與核武器的交叉點上,這種差距的後果可能是人類無法承受的。

結語:能力不等於應該

AI模型能夠進行複雜的核危機推理,並不意味著我們應該讓AI參與核決策。技術能力和倫理許可之間存在根本性的區別。在人類歷史上,核武器的存在已經讓我們承擔了巨大的存亡風險。將AI引入這個等式,可能使風險成倍增加。

正如這篇arXiv論文的標題所暗示的:AI已經擁有了「軍備與影響力」(Arms and Influence),但誰來確保這種能力被負責任地使用?這是2026年最需要回答的問題之一。