從「挑戰者」到「失控者」:xAI的身份轉變

Elon Musk在2023年創立xAI時,曾以「追求真相的AI」為旗號,公開批評OpenAI等競爭對手在安全限制上過於保守。Grok——xAI的旗艦AI模型——以其「不受審查」的個性和敢於觸碰敏感話題的風格迅速吸引了一批忠實用戶。

然而,「不受審查」與「不受約束」之間存在一條關鍵的界線。根據近期多篇深度報導的披露,xAI在SpaceX合併後正在急速跨越這條界線——而且這不是意外事件,而是來自最高層的有意推動。

前員工爆料:Musk親自推動「失控」方向

The Verge援引一位前xAI員工的爆料指出,Musk本人「積極致力於」(actively working)讓Grok變得更加「失控」(unhinged)。這一指控的嚴重性不僅在於其內容本身,更在於它意味著安全防護的弱化並非基層執行的偏差,而是最高領導層的明確指令。

xAI內部動盪:關鍵事實

  • 離職人數:至少11名工程師和2位聯合創始人在合併後離開
  • 離職原因:多人表示對安全問題被忽視「日益感到幻滅」(increasingly disillusioned)
  • 組織重組:Musk宣布進行組織重組,表示將「與一些人分道揚鑣」
  • 月燒錢率:xAI目前每月燒錢約10億美元

2位聯合創始人的離開尤其值得關注。在初創公司中,聯合創始人的離開通常意味著對公司方向或文化的根本性分歧。當這種分歧涉及AI安全問題時,其信號意義更加令人警覺。

百萬張性化圖片:Grok圖像生成的失控

在所有令人擔憂的事態發展中,最具衝擊力的或許是這一項:Grok的圖像生成功能被用戶利用來創造超過100萬張性化圖片,其中包括深度偽造(deepfakes)內容。

技術漏洞還是設計選擇?

一個關鍵問題是:這是技術防護的疏忽,還是有意為之的設計選擇?主流AI圖像生成工具——包括DALL-E、Midjourney和Stable Diffusion——都設有明確的內容過濾機制,阻止生成性暴力或非自願性化內容。如果Grok的過濾機制如此薄弱以至於允許百萬級別的不當內容生成,這要麼是嚴重的技術缺陷,要麼是刻意放鬆了安全限制。

無論哪種情況,結果都是嚴重的。深度偽造技術被用於生成非自願性化圖片(即所謂的「非自願色情」)已經在全球多個司法管轄區構成犯罪行為。一個主流AI平台淪為此類內容的生產工具,對受害者造成的傷害是切實且深遠的。

「xAI的安全是否已死?」

TechCrunch在近期的一篇深度報導中直接提出了這個尖銳問題:「Is safety dead at xAI?」(xAI的安全是否已死?)。這篇文章綜合了多位前員工和業界觀察者的觀點,勾勒出了一幅令人不安的圖景:

  • 安全團隊被邊緣化:負責內容安全和模型安全的團隊在決策中的話語權被大幅削弱
  • 「快速行動」文化壓倒安全考量:在追求產品迭代速度的壓力下,安全審查被視為阻礙
  • 內部反饋機制失效:工程師對安全問題的內部報告未能得到有效回應
  • 員工幻滅:多名員工表示他們「日益感到幻滅」,認為公司已經偏離了負責任AI開發的基本原則

行業對比:AI安全投入

與xAI形成鮮明對比的是,其主要競爭對手在2025-2026年持續加大安全投入:

  • Anthropic:以「負責任擴展政策」(RSP)為核心,安全團隊與產品團隊平級
  • OpenAI:儘管也面臨安全爭議,但維持了專門的安全研究團隊和外部審計機制
  • Google DeepMind:設有獨立的安全與倫理委員會

SpaceX-xAI合併的結構性問題

SpaceX與xAI的合併,估值高達1.25萬億美元,是科技史上最大規模的企業合併之一。然而,這筆交易的結構可能從根本上加劇了安全問題。

文化衝突

SpaceX以其高壓、高速的工程文化著稱——「快速失敗、快速迭代」是其核心信條。這種文化在火箭製造中或許適用(失敗的後果主要是經濟損失),但在AI開發中卻可能帶來嚴重的倫理和社會風險。當「快速失敗」的文化被應用於AI安全時,「失敗」的代價可能由無數無辜的用戶和公眾承擔。

財務壓力

xAI目前每月燒錢約10億美元,這種高燒錢率對安全投入構成了直接壓力。當公司面臨嚴峻的財務約束時,安全——作為一項不直接產生收入的「成本中心」——往往最先被削減。

Musk已宣布計劃在2026年中期推進SpaceX的IPO。上市壓力可能進一步加劇「重增長、輕安全」的傾向——因為在IPO路演中,投資者最想聽到的是用戶增長和營收故事,而非安全防護的技術細節。

監管層面的影響

xAI的安全危機正在為全球AI監管的討論提供新的素材。歐盟的《AI法案》、美國各州的AI監管提案,以及中國的生成式AI管理辦法,都在不同程度上要求AI公司承擔安全責任。

  • 歐盟:《AI法案》要求高風險AI系統通過嚴格的合規審查,Grok的圖像生成功能可能面臨額外審查
  • 美國:多個州正在推進針對深度偽造的立法,xAI可能面臨法律挑戰
  • 國際層面:英國AI安全峰會的後續行動可能將xAI的案例作為推動更嚴格自願承諾的論據

對AI產業的警示

xAI的案例為整個AI產業提供了一個極具教育意義的反面教材。它清楚地表明:

核心教訓

  • 安全文化必須自上而下:當最高領導層不重視安全時,任何技術防護措施都將被架空
  • 人才流失是最強警報:當安全相關人員大規模離職時,這是系統性問題的明確信號
  • 企業合併需考慮文化兼容性:不同的企業文化對待風險的方式可能根本不同
  • 商業壓力與安全責任的平衡:高燒錢率和上市壓力不能成為忽視安全的理由

結語:AI安全不能是可選項

在AI技術以前所未有的速度改變世界的當下,安全不是可以事後補救的附加功能,而是必須從一開始就融入產品設計和企業文化的核心要素。xAI的案例是一個令人不安但必要的提醒:當一家擁有頂級AI能力和數十億美元資源的公司選擇忽視安全時,後果可能是災難性的。

對於香港及亞太地區的AI從業者和政策制定者而言,xAI的教訓尤為重要。在推動AI產業快速發展的同時,如何建立有效的安全治理框架、確保企業承擔相應的安全責任,將是未來數年最關鍵的政策議題之一。AI的未來不應由最不負責任的參與者來定義。