Anthropic 對抗五角大廈:300名 Google、OpenAI 員工聯署聲援,AI 自主武器紅線備受矚目

OpenAI and Google employees rush to Anthropic's defense in DOD lawsuit

2026年初以來,Anthropic 與美國國防部(五角大廈)之間的對抗,已成為 AI 產業最受矚目的倫理與政治事件,並在整個矽谷引發廣泛迴響。

衝突起源:AI 使用底線

事件源起於 Anthropic 與美國國防部重新談判 AI 合約時,Anthropic CEO Dario Amodei 明確劃定兩條紅線:拒絕讓公司的 AI 用於大規模監控美國公民,以及拒絕讓 AI 成為無需人類監督便能發動攻擊的自主武器。這一立場直接引發了與五角大廈的正面衝突。

升級:被列為「供應鏈風險」

情況隨後急遽惡化。五角大廈以「供應鏈風險」為由將 Anthropic 列入黑名單——這個標籤通常保留給外國敵對勢力,意味著任何與 Anthropic 有業務往來的公司都無法再承接美國軍方合約。與此同時,川普政府要求聯邦機構逐步停止使用 Anthropic 的工具,並公開批評其為「極左激進公司」。

矽谷罕見跨公司聯署

此事件引發了科技業少見的跨公司聲援行動:逾300名 Google 員工與60名 OpenAI 員工聯署公開信,要求各自公司的領導層公開支持 Anthropic,並拒絕配合此類濫用 AI 的做法。另有逾30名 OpenAI 及 Google DeepMind 員工聯署法庭聲明,支持 Anthropic 對國防部提起的訴訟。

市場效應

事件的連鎖反應也在市場上顯現:OpenAI 宣布與國防部達成合作協議的翌日,ChatGPT 解除安裝率單日暴增295%;Anthropic 的 Claude 應用程式則隨即衝上 App Store 下載排行榜第一名,顯示公眾對 AI 倫理問題的高度關注。