一封信、一個請願,改寫了AI產業的政治格局
2026年2月下旬,正當五角大樓對Anthropic的最後通牒在業界引發震盪之際,一場更大規模的員工行動悄然成形。來自Google DeepMind的236名員工向AI部門主管Jeff Dean遞交了一封內部信,與此同時,65名OpenAI員工在網上發起題為「We Will Not Be Divided(我們不會被分裂)」的公開聯署請願。兩封信的核心訴求幾乎一致:要求各公司領導層在軍事AI合同中明確劃定紅線,拒絕讓AI技術被用於自主武器系統與大規模公民監控。
這兩封信並非偶然同時出現。根據請願書的說明,Google與OpenAI的員工已就此事進行了跨公司協調——這在科技業的工人行動史上前所未有。長期以來,Google、OpenAI、Anthropic是彼此最直接的商業競爭對手,工程師、研究員之間的跳槽與挖角從未停歇。然而此刻,他們選擇站在同一個立場,向各自的領導層傳遞同一個訊息。
「五角大樓正在與Google和OpenAI談判,試圖讓他們同意Anthropic所拒絕的條件。他們利用恐懼來分化每一家公司,讓他們擔心另一家會先讓步。這個策略只有在我們互不知情的情況下才會奏效。」
——「We Will Not Be Divided」公開請願書
這段話精準地點出了五角大樓的談判策略:分而治之。當三家頂尖AI公司各自為政、互相猜疑時,任何一家都可能因為害怕「被競爭對手搶先」而提前妥協。而員工聯署行動的戰略意義,正是打破這種資訊不對稱——讓各公司都知道彼此的立場,讓分化策略失去生效的土壤。
Jeff Dean的表態:AI部門主管公開聲援
Google員工的內部信送達Jeff Dean手中後,這位Google AI部門首席科學家的回應令許多人感到意外。Dean不僅表示支持員工的關切,更在社交媒體上主動發文,明確表達了與Anthropic立場的連帶:
「大規模監控違反憲法第四修正案,對言論自由具有寒蟬效應。」
——Jeff Dean,Google AI部門主管
Dean選擇公開發言,而不是以內部備忘錄回應,這一舉動本身就具有重要的象徵意義。在矽谷的企業文化中,高層主管通常避免就政治敏感議題公開表態,以免引發客戶或政府的負面反應。Dean的這篇貼文,等同於Google AI部門最高負責人向五角大樓傳遞了一個清晰的訊號:技術層的核心人員不支持在監控問題上妥協。
這一立場在法律層面同樣具有分量。憲法第四修正案保障公民免受政府的無理搜查與扣押,被認為是約束政府監控行為的核心法律依據。Dean援引這一條款,意味著他將員工對監控AI的拒絕,置於憲政框架之內——而非僅僅是企業道德選擇的問題。
Sam Altman的迴響:五角大樓不應威脅AI企業
OpenAI方面,執行長Sam Altman對員工行動的回應態度同樣值得關注。Altman在接受媒體採訪時表示,五角大樓「不應該以《國防生產法》威脅這些公司」——這句話直接呼應了此前Anthropic事件中,國防部以法律手段施壓的報導。
Altman的表態具有多重意涵。首先,他承認了五角大樓的強制手段是不正當的,這與官方的否認敘事形成張力。其次,他的措辭用「這些公司」(these companies)而非「我們公司」,暗示他認為整個產業都面臨同一種壓力。最重要的是,OpenAI官方隨後確認,該公司同樣認同Anthropic劃定的兩條紅線——拒絕AI自主武器控制與大規模監控——儘管在外界看來,OpenAI向來更傾向於與政府合作。
員工聯署信的四大核心訴求
- 明確紅線:要求公司在政府合約中以文字形式寫明,拒絕將AI用於自主致命武器決策與大規模公民監控
- 強制披露:所有涉及軍事或情報機構的合約必須對員工公開,不得以商業機密為由隱瞞
- 工人保護:不得因員工拒絕參與被認定為違反倫理的項目而遭受報復,包括調離職位或解僱
- 全員大會:要求管理層召開全體員工大會,公開說明公司的政府合作政策與立場
歷史迴響:Project Maven 2018年的幽靈
對於任何熟悉科技業歷史的人來說,2026年的這一幕不可避免地喚起了2018年的記憶。那一年,Google與美國軍方合作的「Project Maven」計劃——一個使用機器學習分析無人機影像、協助鎖定目標的軍事AI項目——被《紐約時報》曝光。消息傳出後,數千名Google員工在公開信中要求公司退出這個項目,並最終迫使Google宣布不再續簽合約。這是科技工人有組織地迫使大型科技公司在軍事合作問題上讓步的第一個成功案例。
然而,2026年的行動與2018年存在幾個根本性的差異,使其在歷史意義上更為深遠。
第一,行動的規模與範圍更廣。2018年的Project Maven抗議主要發生在Google內部,雖然最終聯署人數超過四千,但本質上是一家公司的內部事件。2026年的聯署橫跨了Google與OpenAI兩家公司,並明確說明了與Anthropic員工立場的協調——這是三家世界頂級AI公司的員工第一次以組織化的方式採取協調行動。
第二,議題的複雜度更高。Project Maven的爭議相對清晰:AI是否應該直接用於軍事目標識別?2026年的議題更為複雜:如何界定「合理的軍事應用」與「不可接受的紅線」之間的邊界,如何在政府的法律施壓下維持企業的倫理承諾,以及如何在市場競爭壓力下抵抗「競爭對手會先讓步」的焦慮?這些問題沒有清晰的技術答案,只有政治判斷。
第三,領導層的回應截然不同。2018年,Google管理層在員工壓力下退出了Project Maven,但整個過程充滿對抗,部分強烈支持員工行動的工程師後來離開了公司。2026年,Jeff Dean主動表態支持員工的關切,這種由上而下的連帶訊號,為行動提供了不同的政治動力。
五角大樓的反駁:「我們不想監控美國人」
面對員工聯署與各方輿論壓力,五角大樓的發言人發表了官方聲明,否認國防部有意在美國境內實施大規模公民監控,並表示軍方不尋求開發或部署完全自主的致命武器系統。
然而,這份否認聲明所能發揮的說服力十分有限。原因在於,員工聯署信的訴求,並非要求五角大樓承諾目前不打算這樣做,而是要求各AI公司在合約條款中以法律文字明確排除這些可能性——也就是說,即使未來政策改變、即使換了政府領導班子,合約本身也應該具有約束力。
更根本的問題是,「合法的軍事用途」這一措辭本身就充滿模糊空間。什麼是合法?合法性的標準由誰界定?在一個行政部門持續擴張權力解釋的政治環境中,「合法」二字能提供的保障,遠遠少於員工所希望看到的具體紅線。
「呼籲各公司領導層放下彼此的分歧,共同站立。」
——「We Will Not Be Divided」請願書
跨公司團結的政治經濟學
要理解這場行動的深層意義,必須回到一個基本問題:為什麼是現在?為什麼Google和OpenAI的員工選擇在此刻公開協調,而不是各自向自己的公司施壓?
答案很大程度上源於Anthropic事件所創造的先例效應。當Anthropic在來自五角大樓的巨大壓力下,仍然堅守了兩條紅線之後,這一事實本身就成了一種資源:它證明了對AI公司說「不」是可能的,不會立即導致企業被摧毀或被市場淘汰。對於Google和OpenAI的員工來說,Anthropic的立場提供了一個錨點——他們可以要求自己的公司達到同樣的標準,而不必擔心「這是不切實際的理想主義」的反駁。
更重要的是,請願書的邏輯切中了五角大樓策略的核心弱點。如果三家公司的員工都知道彼此的立場,如果各公司的工程師都不願意參與被明確排除在紅線之外的項目,那麼「先讓步的公司會獲得更多合約」這個假設就會崩潰——因為讓步的公司可能根本找不到足夠的工程師來執行這些項目。這是一種從供給端施壓的策略,而非傳統意義上的消費者抵制。
2018年 vs. 2026年:兩次科技工人行動的比較
- 規模:2018年 Project Maven — Google單一公司內部;2026年 — Google、OpenAI、Anthropic三家公司跨企業協調
- 訴求:2018年要求退出特定項目;2026年要求建立系統性的合約紅線與披露機制
- 管理層回應:2018年被動妥協、內部衝突;2026年Jeff Dean主動表達連帶,訊號更為明確
- 先例:2018年首次證明員工可以影響軍事AI決策;2026年首次建立跨競爭對手的工人協調機制
- 歷史意義:2018年是單一公司事件;2026年可能是AI產業集體自我規範的起點
AI工人權利的新邊疆
這場行動在更廣泛的勞工權利框架下,具有超越AI產業本身的意義。長期以來,科技工人——尤其是頂尖AI研究員和工程師——被視為勞工運動的局外人:高薪、高地位、被公司善待,沒有組建工會的迫切需求。Project Maven之後,這個觀念開始鬆動;2026年的跨公司聯署,則進一步確立了「科技工人可以以集體行動影響企業的倫理決策」這一命題。
員工的核心主張——要求在政府合約中明確披露、要求因拒絕不道德項目而受到保護——本質上是在主張一種新型的職業倫理自主權。這不同於傳統工會對薪酬、工時、福利的訴求,而是對「工程師應否有責任也有權利拒絕參與被認定為有害的項目」這一問題的政治化回答。
在這個意義上,2026年的行動提出的問題比它提供的答案更重要:當AI技術的倫理影響超越了任何單一公司甚至單一國家的管轄範圍時,誰應該成為最後的守門人?是政府的監管機構、是企業的董事會、還是掌握最核心技術知識的工程師群體本身?
對香港科技從業者的啟示
對於身處香港的科技工作者而言,這場發生在矽谷的風波看似遙遠,實則折射出許多共同的困境與思考。
香港作為亞太區的科技和金融樞紐,本地科技公司與跨國企業的香港分部同樣面對「在安全需求、商業利益與個人倫理之間如何拿捏」的問題。雖然香港的政治環境與美國截然不同,但AI技術被用於各種敏感場景的壓力——無論來自哪個方向——都是真實存在的。
更直接的問題是:當你作為一名工程師或研究員,被要求參與一個你認為在倫理上存在問題的項目時,你有什麼選擇?在香港,目前幾乎不存在類似矽谷那種有組織的科技工人集體行動傳統。但這不意味著個人的倫理判斷沒有空間。
從實際角度看,矽谷的這場行動對香港科技界的影響可能體現在以下幾個層面:首先,跨國科技公司(如Google、Meta、Microsoft等在港設有重要業務的公司)的全球政策調整,可能直接影響其香港分部的項目範圍。其次,如果此次聯署行動成功推動相關公司確立明確的AI倫理紅線,這些紅線將成為行業標準,間接影響香港本地科技公司的合規基準。最後,對於有志赴美或在美資公司工作的香港工程師來說,了解這場行動的來龍去脈,也有助於理解正在形成中的AI從業者職業倫理期望。
香港科技從業者的實際考量
- 了解合約條款:在加入涉及政府或軍事業務的項目前,主動詢問項目的使用範圍與限制
- 追蹤行業標準:關注Google、OpenAI、Anthropic等公司的AI倫理政策更新,這些將逐步成為行業基準
- 建立職業邊界:在技術能力之外,思考個人願意和不願意參與的項目類型,並建立清晰的職業邊界
- 關注國際動態:跨國公司的全球AI政策調整往往會傳導至香港分部,及早了解有助於做好準備
下一步:行動能走多遠?
「We Will Not Be Divided」請願書發布後,業界最關注的問題是:這場行動最終能夠達成什麼?
從歷史先例來看,2018年的Project Maven行動讓Google退出了一份具體的軍事合約,但Google此後仍在繼續與美國軍方和情報機構進行各種形式的合作。員工的集體壓力能夠影響特定項目,但要改變企業的整體策略定向,需要更持久、更系統性的行動。
2026年行動的成敗,可能取決於幾個關鍵變數:其一,Jeff Dean表態支持員工關切的態度,是否能夠轉化為具有法律約束力的合約條款?其二,Sam Altman對五角大樓施壓手段的批評,是否意味著OpenAI願意在合約中明確排除自主武器與監控用途?其三,Anthropic的堅守是否已經為整個產業設定了一個難以被視而不見的先例?
無論結果如何,這場行動已經在AI產業的政治格局中留下了不可磨滅的印記:科技工人可以跨越公司邊界進行協調;倫理紅線可以成為集體談判的籌碼;而「我們不會被分裂」這句話,已經成為一個時代的宣言——即使這個時代只是剛剛開始。
編輯觀點:一個無法迴避的歷史時刻
在AI Academy HK的編輯看來,這場跨公司聯署行動的意義,遠不止於一次工人維權事件。它揭示了一個更深層的結構性張力:當AI技術的發展速度遠超社會和法律框架的調適能力時,倫理邊界的守護者究竟是誰?
過去幾年,我們習慣於將AI安全討論放在政府監管、企業自律、技術標準這三個框架下分析。2026年2月的這場行動提醒我們,還有第四個框架——工人的集體倫理自主。這個框架的獨特之處在於,它是從技術知識的最前線發出的聲音。那些設計、訓練、部署這些AI系統的工程師和研究員,比任何監管機構都更清楚地知道這些系統能做什麼、應該做什麼、以及在哪些場景下它們的使用是危險的。
當然,這種框架也有其局限。工人的倫理判斷可能存在偏差,跨公司協調可能引發反壟斷疑慮,而「誰有資格代表全體工人發言」的問題也尚待回答。但這些局限性,不應遮蔽這場行動所承載的更大問題:在一個AI技術正在被用於塑造戰爭、監控與權力的世界裡,那些創造這些技術的人,是否有責任和義務說出「不行,這條線不能越」?
歷史會記住這個時刻。不一定因為行動成功了,而是因為它發生了。