一個團隊的短暫生命

Mission Alignment團隊成立於2024年9月,是OpenAI內部專門從事AI對齊工作的部門。根據公司當時的職位描述,團隊的使命是開發「讓AI在各種場景中——包括對抗性或高風險場景——穩健地遵循人類意圖」的方法論。

然而,僅僅運作了16個月,這個團隊就被解散了。OpenAI向TechCrunch確認,團隊成員已被分配到公司其他崗位,「繼續從事相關工作」。

從營運權力到顧問角色

團隊負責人Josh Achiam的角色轉變尤其值得關注。他從領導一個專門團隊,轉變為一個新設的「首席未來學家」角色。Achiam在一篇博文中寫道:「我的目標是通過研究世界將如何因AI、AGI及其他技術而變化,來支持OpenAI的使命——確保通用人工智能造福全人類。」

批評者指出,設立一個「首席未來學家」角色,同時解散該人所領導的團隊,實質上是將安全監督從營運權力降格為顧問影響力。這種結構性變化可能會降低安全考量在產品決策中的制度性權重。

OpenAI安全團隊的解散歷史

  • 2023年:成立Superalignment團隊,研究AI長期存在性風險,分配20%計算資源
  • 2024年5月:Superalignment團隊解散,聯合負責人Ilya Sutskever和Jan Leike離職
  • 2024年9月:成立Mission Alignment團隊
  • 2026年2月:Mission Alignment團隊解散,僅運作16個月

模式還是巧合?

這已經是OpenAI第二次解散專注於AI安全的團隊。2023年,OpenAI成立了Superalignment團隊,由聯合創始人Ilya Sutskever和研究員Jan Leike共同領導,專門研究AI帶來的長期存在性威脅。該團隊獲得了OpenAI 20%的計算資源。

但到2024年,Sutskever和Leike都離開了公司,Superalignment團隊隨之解散。Leike在離職時公開批評OpenAI,稱公司在「安全文化和流程方面已經落後」。現在,繼任的Mission Alignment團隊也走上了同樣的道路。

財務壓力下的優先級選擇

此次重組的背景是OpenAI正在追求一輪估值超過1500億美元的融資。去年,OpenAI產生了約130億美元的收入。在激烈的商業競爭和巨大的資本需求下,安全研究可能被視為一種「奢侈」——一個不直接產生收入的成本中心。

但這種觀點忽略了一個根本問題:隨着AI系統變得越來越強大和自主,對齊和安全研究的重要性不是在減少,而是在增加。特別是在代理式AI正在快速普及的2026年,確保這些自主系統「穩健地遵循人類意圖」——正是Mission Alignment團隊的核心使命——比以往任何時候都更為關鍵。

行業反應與影響

AI安全社群對這一消息的反應普遍是擔憂和失望。部分研究人員認為,OpenAI的做法發出了一個令人不安的信號:在商業壓力面前,安全研究團隊是可以被犧牲的。

與此形成對比的是,Anthropic繼續將AI安全作為其核心差異化策略。Anthropic CEO Dario Amodei多次強調,AI安全不是一個可選的附加功能,而是AI開發的基礎。Google DeepMind也維持着其安全研究團隊的獨立性和資源投入。

對整個AI行業的警示

OpenAI解散Mission Alignment團隊的決定,引發了關於AI行業整體安全文化的更廣泛討論。在一個AI系統正在從聊天機器人演變為自主代理、從文字處理工具演變為可以操作電腦和執行物理任務的系統的時代,安全研究的投入是否應該與能力研究同步增長?

答案似乎是顯而易見的。但OpenAI的行動表明,在商業現實面前,「顯而易見」的答案不一定會被採納。對於整個AI行業而言,這是一個值得深思的警示。