Ryan Beiermeister:因說「不」而被解僱

Ryan Beiermeister曾擔任OpenAI產品政策副總裁,負責制定ChatGPT及相關產品的內容政策。據報導,她之所以被解僱,是因為反對OpenAI計劃推出的「成人模式」——一項允許ChatGPT生成色情和情色文字內容的功能。Beiermeister不僅反對該功能本身,更警告OpenAI現有的兒童保護防護措施不夠強大,無法有效防止未成年人接觸此類內容。

被解僱後,Beiermeister向相關機構提出了性別歧視申訴。她指出,在OpenAI的決策層中,安全和政策方面的女性意見被系統性地邊緣化。當她就「成人模式」的兒童安全風險提出反對意見時,管理層選擇解僱她而非正視問題。這一事件揭示了AI公司在商業利益與安全責任之間日益加劇的內部張力。

「成人模式」爭議核心問題

  • 功能概述:允許ChatGPT生成色情及情色文字內容
  • Beiermeister的反對理由:兒童保護防護措施不足以防止未成年人接觸
  • 後果:Beiermeister被解僱,隨後提出性別歧視申訴
  • 深層問題:AI公司商業化壓力與安全責任的根本衝突

Zoë Hitzig:在《紐約時報》拉響警報

如果說Beiermeister的離開是被動的,Zoë Hitzig的辭職則是一次精心策劃的公開抗議。Hitzig是OpenAI的研究員,她選擇在《紐約時報》發表長篇專文宣布辭職,在文章中詳細闡述了自己對OpenAI發展方向的「深層疑慮」(deep reservations)。

Hitzig的核心擔憂集中在ChatGPT廣告計劃上。她指出,OpenAI正計劃在ChatGPT中引入廣告系統,這意味著用戶與AI的對話數據可能被用於廣告定向。她警告,ChatGPT龐大的數據檔案庫——包含數十億條用戶對話記錄——構成了一個深刻的倫理困境:這些數據原本是用戶在信任環境下提供的,將其用於商業化廣告可能嚴重違反用戶的合理期待。

ChatGPT數據的倫理困境

Hitzig的擔憂觸及了AI產業一個尚未被充分討論的核心問題。與傳統搜尋引擎的查詢記錄不同,用戶與ChatGPT的對話往往涉及極為私密的內容——健康問題、情感困擾、財務狀況、甚至心理諮詢式的傾訴。當用戶將ChatGPT視為「值得信賴的對話夥伴」時,將這些對話數據用於廣告投放,其倫理爭議遠超傳統的數位廣告。

Hitzig在文章中寫道:「ChatGPT的數據檔案庫記錄了人類最脆弱的時刻。將這些數據商業化,不僅是隱私問題,更是信任問題。一旦用戶意識到他們的每一句話都可能成為廣告素材,AI助手與人類之間的信任關係將徹底崩塌。」

任務對齊團隊解散與安全架構重組

與個人離職相比,OpenAI在組織層面的變動更令人擔憂。公司解散了由七人組成的「任務對齊團隊」(Mission Alignment Team),該團隊原本負責確保OpenAI的產品和研究方向符合公司成立時的使命——「安全地開發造福全人類的通用人工智能」。

取而代之的是一個新的角色安排:Joshua Achiam被任命為「首席未來學家」(Chief Futurist)。這一職位變更引發了廣泛質疑。批評者指出,從「任務對齊」到「未來學家」的轉變,反映了OpenAI安全文化的根本轉向——從嚴謹的技術安全評估,轉向更為模糊的「願景描繪」。一個以對齊研究為核心的團隊被替換為一個以展望未來為主要職能的個人角色,這在安全社群看來是明顯的降級。

OpenAI近期安全人員變動

  • Ryan Beiermeister:產品政策副總裁,因反對「成人模式」被解僱
  • Zoë Hitzig:研究員,在《紐約時報》發表辭職文章警告ChatGPT廣告風險
  • 任務對齊團隊:七人團隊被整體解散
  • Joshua Achiam:被任命為「首席未來學家」,取代對齊團隊職能
  • 此前離職:Ilya Sutskever(共同創辦人)、Jan Leike(對齊研究負責人)等

Anthropic安全負責人的離職警告

這一波AI安全人才出走並不限於OpenAI。Anthropic的安全防護研究負責人Mrinank Sharma也在近期辭職,並發出了更為直接的警告:「世界正處於危險之中」(the world is in peril)。Sharma是Anthropic安全體系的核心人物之一,負責設計和測試Claude模型的安全防護機制。他的離職意味著即使是以安全為創立宗旨的Anthropic,也面臨著安全人才流失的壓力。

Sharma的警告與Beiermeister和Hitzig的關注點不同,他更擔憂的是AI能力進步的速度遠超安全研究的步伐。在他看來,當前的AI安全防護措施——無論是對齊訓練、紅隊測試還是內容過濾——都只是臨時性的「補丁」,無法從根本上解決高能力AI系統的安全問題。

「離職警報」成為產業常態

CNN在近期的專題報導中指出,「AI研究員在離職時拉響警報」已經成為一種產業常態。從2024年的Ilya Sutskever離開OpenAI,到2025年的Jan Leike轉投Anthropic,再到2026年初的這一波密集離職潮,越來越多的AI安全研究員選擇在離開時公開表達對前雇主的擔憂。

這種現象的出現並非偶然。AI安全研究員通常受到嚴格的保密協議(NDA)和競業限制的約束,在職期間難以公開批評僱主。離職成為他們表達異議的少數機會之一。一些評論者將此比作「金融業的吹哨人文化」——但不同的是,AI安全人員的警告往往關乎的不是財務欺詐,而是可能影響數十億人的技術風險。

商業化壓力與安全之間的結構性矛盾

這些離職事件共同揭示了AI產業一個深層的結構性矛盾:AI公司面臨的商業化壓力正在與安全責任產生越來越尖銳的衝突。OpenAI的「成人模式」旨在與Character.AI等競品爭奪用戶;ChatGPT廣告計劃則是在投資者要求盈利路徑的壓力下推出的;解散任務對齊團隊更是表明,當安全團隊的意見與商業擴張方向相左時,前者往往成為被犧牲的一方。

對於整個AI產業而言,這些離職警告不應被視為個別事件,而應被理解為一個系統性的信號:那些最了解AI風險的人——曾經在這些公司內部負責安全工作的研究員和管理者——正在用離職和公開發聲來表達他們的憂慮。當業界最優秀的安全人才選擇離開而非留下來解決問題時,這本身就是一個需要被認真對待的警訊。

問題在於:誰來聽取這些警告?在AI公司競相追逐營收、用戶增長和市場份額的當下,離職者的聲音是否真能改變什麼?還是只會淹沒在AI淘金熱的喧囂之中?這或許是2026年AI產業最需要回答的問題。