2026年2月25日,OpenAI正式宣布發布gpt-oss-120b和gpt-oss-20b,這是該公司歷史上首批以完全開放權重形式、採用Apache 2.0授權條款發布的大語言模型。消息一出,整個AI社區為之震動。從2019年決定不公開GPT-2完整權重,到此後數年間GPT-3、GPT-4、GPT-5系列全部以閉源API形式提供,OpenAI長期被批評為「名不副實」——一家以「開放」為名的公司卻成為了閉源AI的代名詞。如今,這兩款模型的發布意味着OpenAI終於兌現了其名字中蘊含的初始承諾。

117B
gpt-oss-120b 總參數量
5.1B
每token活躍參數(MoE)
128K
上下文窗口長度
16GB
gpt-oss-20b 最低顯存需求

技術架構:混合專家的精妙設計

gpt-oss-120b和gpt-oss-20b均採用混合專家(Mixture of Experts,MoE)架構,這是近年來大語言模型領域最受關注的效率提升技術路線之一。MoE的核心理念在於:模型雖然擁有龐大的總參數量,但在處理每個token時僅激活其中一小部分專家網路,從而在保持高性能的同時大幅降低實際計算開銷。

以gpt-oss-120b為例,其總參數量為117B(約1170億),但每個token僅需激活5.1B(約51億)的參數。這意味着在推理階段,模型的實際計算需求遠低於一個同等總參數量的稠密模型。更令人驚嘆的是,得益於這種高效的稀疏架構,gpt-oss-120b可以在單張80GB顯存的GPU上完整運行——這在兩年前對於一個百億參數級別的模型而言幾乎是不可想像的。

gpt-oss-20b則進一步將這種效率推向極致。該模型總參數量為21B(約210億),每token活躍參數僅3.6B(約36億),最低僅需16GB顯存即可運行。這意味着擁有一張消費級顯卡(如NVIDIA RTX 4080或更高型號)的個人開發者,即可在本地部署和運行一個具備完整推理能力的OpenAI級別模型。對於預算有限的初創團隊、學術研究者和獨立開發者而言,這一門檻的降低具有革命性意義。

gpt-oss系列核心技術規格

  • gpt-oss-120b:117B總參數,5.1B活躍/token,MoE架構,單張80GB GPU可運行
  • gpt-oss-20b:21B總參數,3.6B活躍/token,MoE架構,16GB消費級硬件可運行
  • 上下文窗口:兩款模型均支持128K token上下文長度
  • 位置編碼:採用RoPE(Rotary Position Embedding)旋轉位置編碼
  • 授權條款:Apache 2.0——無商用限制,允許修改、再發布和微調

兩款模型均支持128K token的上下文窗口,並採用RoPE(Rotary Position Embedding)旋轉位置編碼技術。128K的上下文長度意味着模型能夠一次性處理約10萬字的文本內容,足以涵蓋大部分技術文件、完整的程式碼庫或長篇報告。RoPE作為一種高效的位置編碼方案,已在業界被廣泛驗證其在長序列處理中的穩定性和效果。

性能表現:逼近閉源標桿

OpenAI公布的基準測試數據顯示,gpt-oss-120b在多項推理任務中的表現已接近該公司自家閉源模型o4-mini的水準,並在整體性能上超越了上一代的o3-mini。考慮到o4-mini本身已是OpenAI商業產品線中極具競爭力的推理模型,gpt-oss-120b以開源之姿達到近似水準,其衝擊力不言而喻。

「當一個免費、開源、可在單張GPU上運行的模型,能夠達到與商業閉源模型相當的推理能力時,整個AI產業的定價邏輯和商業模式都將面臨根本性的挑戰。」

這一性能表現對市場格局的影響深遠。過去,開發者和企業若需要頂級推理能力,只能選擇向OpenAI、Anthropic或Google支付高額的API費用。如今,gpt-oss-120b提供了一個幾乎零邊際成本的替代方案——下載模型權重後,推理成本僅取決於硬件和電力費用。對於推理調用量龐大的應用場景(如客服系統、代碼輔助、內容生成等),長期運營成本的節省將極為可觀。

原生代理能力:不只是聊天機器人

gpt-oss系列模型的另一大亮點在於其原生內建的代理式(agentic)能力。與許多開源模型需要依賴外部框架才能實現工具調用不同,gpt-oss-120b和gpt-oss-20b從設計之初即內建了多種代理功能:

  • 函數調用(Function Calling):模型能夠根據任務需求自主選擇並調用外部函數和API,實現與外部系統的無縫互動
  • 網頁瀏覽(Web Browsing):支持即時搜索和網頁內容提取,使模型能夠獲取最新資訊
  • 代碼執行(Code Execution):可在沙盒環境中直接執行生成的代碼,驗證結果並進行迭代優化

這些原生代理能力使得gpt-oss系列模型不僅僅是一個問答系統,而是一個可以自主執行複雜多步驟任務的智能代理。開發者可以基於這些能力構建自動化工作流、智能助理和複雜的業務處理管線,而無需從頭搭建代理框架。

可配置推理與完整思維鏈

作為推理模型,gpt-oss系列的一大特色是可配置的推理力度(configurable reasoning effort)。開發者可以根據任務的複雜程度,動態調整模型投入的推理計算量。對於簡單的事實查詢或格式轉換,可以降低推理力度以獲得更快的回應速度;對於需要深度分析的數學證明或複雜編程任務,則可以啟用完整的推理鏈條。

更重要的是,gpt-oss系列提供完整的思維鏈(chain-of-thought)輸出。與部分商業推理模型隱藏中間推理過程不同,gpt-oss允許使用者完整查看模型的推理步驟,從而更好地理解模型的決策邏輯、發現潛在錯誤,並針對性地進行優化。這種透明度對於學術研究、安全審計和模型改進都具有重要價值。

「開源推理模型的完整思維鏈輸出,為AI安全研究打開了一扇前所未有的窗口。研究者終於可以在不依賴任何商業API的前提下,深入分析前沿推理模型的內部決策過程。」

安全評估:負責任的開源策略

開源一個強大的推理模型,安全問題自然是業界最為關注的焦點。OpenAI在發布聲明中詳細披露了gpt-oss系列的安全評估結果。根據OpenAI的內部準備框架(Preparedness Framework),即使在對抗性微調(adversarial fine-tuning)場景下,gpt-oss-120b在任何能力維度上都未達到「高」(High)風險閾值。

這一評估結果意味着,即使惡意行為者嘗試通過微調來突破模型的安全護欄,模型的潛在危害能力仍然控制在可接受的範圍內。OpenAI表示,這是他們決定以完全開放權重形式發布這些模型的關鍵前提——只有在確認模型不會帶來不可控風險的情況下,才會選擇開源路線。

這一安全策略體現了OpenAI在開放與安全之間尋求平衡的務實態度。將安全評估的門檻設定在「對抗性微調後仍不達高風險」的標準,既確保了開源模型的安全性底線,也為未來更強大的模型設定了明確的開源準入條件。

平台可用性:多渠道觸達

為確保全球開發者能夠便捷地獲取和使用gpt-oss系列模型,OpenAI選擇了多平台同步上線的策略。模型權重已在HuggingFace上公開發布,開發者可以直接下載並在本地或私有雲環境中部署。同時,Oracle Cloud和Google Vertex AI也提供了託管部署方案,企業用戶可以透過這些平台快速啟用模型,無需自行管理底層基礎設施。

HuggingFace作為全球最大的開源AI模型託管平台,是開源模型分發的天然首選。Oracle Cloud和Google Vertex AI的加入則反映了OpenAI在商業合作上的靈活姿態——即使是開源模型,企業級的部署、監控和支援服務仍然是一門有利可圖的生意。這也暗示了OpenAI可能正在探索一種「開源模型 + 商業服務」的混合商業模式,類似於Red Hat之於Linux的角色定位。

歷史性轉折:從封閉到開放的漫長回歸

要理解gpt-oss發布的歷史意義,必須回顧OpenAI與開源之間曲折的關係史。2015年,OpenAI由Sam Altman、Elon Musk等人共同創立,最初的使命宣言明確強調「開放」——確保人工通用智慧(AGI)惠及全人類。早期的OpenAI確實踐行了這一理念,GPT-1和GPT-2(最終版本)都以開源形式發布。

然而,從GPT-3開始,OpenAI逐步轉向封閉路線。2020年發布的GPT-3僅提供API訪問,模型權重從未公開。此後的GPT-4、GPT-5系列更是徹底閉源,連技術論文中的架構細節都越來越模糊。OpenAI給出的理由是安全考量——擔心開放強大模型的權重會被惡意利用。但批評者指出,商業利益才是閉源的真正動機——壟斷模型訪問權是OpenAI估值數百億美元的核心基礎。

期間,Meta的Llama系列、Mistral的Mixtral系列、阿里巴巴的Qwen系列等開源模型迅速崛起,在性能上不斷縮小與閉源模型的差距。開源社區的壯大對OpenAI構成了越來越大的壓力——如果競爭對手的開源模型能夠提供80%甚至90%的性能,開發者為什麼還要為OpenAI的API付費?

gpt-oss系列的發布,可以視為OpenAI對這一趨勢的戰略回應。與其被動地看着開源競爭對手蠶食市場份額,不如主動加入開源陣營,以自身的品牌影響力和技術實力重新定義開源AI的標準。

OpenAI開源歷程回顧

  • 2015年:OpenAI成立,使命強調「開放」與AGI安全
  • 2018-2019年:GPT-1、GPT-2開源發布(GPT-2曾延遲發布完整版本)
  • 2020年:GPT-3僅提供API,開啟閉源時代
  • 2023-2025年:GPT-4、GPT-5系列完全閉源,估值飆升
  • 2026年2月:gpt-oss-120b與gpt-oss-20b以Apache 2.0開源,重返開放陣營

Apache 2.0的意義:真正的開源自由

OpenAI選擇Apache 2.0作為授權條款,這一決定本身就傳遞了強烈的訊號。Apache 2.0是業界公認的最寬鬆的開源授權之一,允許使用者自由地使用、修改、分發和商用模型權重,無需支付任何授權費用,也無需開源自己的衍生作品。

相較之下,Meta的Llama系列雖然被廣泛稱為「開源」,但其授權條款包含了用戶數量限制(月活超過7億需單獨協議)和特定使用場景的限制,嚴格意義上並不符合開源倡議組織(OSI)對「開源」的定義。OpenAI直接採用Apache 2.0,等於在授權條款的開放程度上一步到位,超越了大多數競爭對手。

對於企業用戶而言,Apache 2.0的明確授權條款消除了法律風險的不確定性。企業可以放心地將gpt-oss模型整合到商業產品中、進行特定領域的微調、甚至在此基礎上構建競爭性的AI服務——所有這些都無需擔心授權條款的灰色地帶。

對AI生態的深遠影響

gpt-oss系列的發布將在多個層面重塑AI產業的生態格局。

在開源模型領域,OpenAI的加入將顯著提升競爭強度。Meta Llama、Mistral、Qwen、DeepSeek等現有開源陣營的主要玩家,現在需要面對一個擁有頂級研究團隊、龐大算力資源和強大品牌效應的新競爭者。這種競爭最終將惠及整個社區——更多的高質量開源模型意味着更低的使用門檻和更快的技術普及。

在商業模型領域,gpt-oss的性能水準對閉源API的定價構成了直接壓力。當一個免費開源模型能夠提供與付費API相當的推理能力時,Anthropic、Google等競爭對手不得不重新審視其定價策略。我們可能會看到API價格的進一步下降,或是閉源模型在獨特功能和企業服務方面的進一步差異化。

在學術研究領域,gpt-oss的完整開放為研究者提供了一個前所未有的研究平台。此前,針對前沿推理模型的研究很大程度上受限於API訪問——研究者無法查看模型內部、無法進行消融實驗、無法驗證特定的技術假設。gpt-oss的開源使得這些研究成為可能,有望加速AI安全、可解釋性和對齊等關鍵領域的進展。

編輯觀點:OpenAI的務實轉身與開源的勝利

gpt-oss系列的發布,與其說是OpenAI的慷慨之舉,不如說是一次精心計算的戰略調整。在Meta Llama、DeepSeek R1、Qwen等開源模型不斷蠶食市場份額的壓力下,OpenAI選擇以攻為守——與其讓競爭對手獨佔開源市場的聲量和開發者心智,不如親自下場,以自家的技術實力重新定義開源推理模型的標桿。

從技術角度看,gpt-oss的設計充滿巧思。MoE架構在保持高性能的同時,將實際硬件需求壓縮到令人驚嘆的程度——120b模型單張80GB GPU可運行,20b模型甚至可以在消費級硬件上部署。這種「高參數、低門檻」的策略,最大限度地擴大了潛在用戶群,也為OpenAI贏得了開發者社區的好感。

然而,我們也需要審慎思考幾個問題。首先,OpenAI選擇開源的是哪些模型?gpt-oss-120b的性能接近o4-mini,但仍低於o4、GPT-5等旗艦模型。OpenAI開源的是「足夠好」的模型,而非最強的模型——核心技術優勢仍然牢牢握在手中。這是一種典型的「開源護城河外圍、閉源保護核心」的策略。

其次,安全評估的透明度值得肯定。OpenAI明確表示gpt-oss即使在對抗性微調下也未達到高風險閾值,這為「什麼級別的模型適合開源」這一行業性問題提供了一個可參考的框架。未來,隨着模型能力的持續提升,這一安全門檻將成為業界激辯的焦點。

無論動機如何,gpt-oss的發布對整個AI社區都是一個積極的信號。它表明,即使是最具商業野心的AI公司,也無法忽視開源的力量。開源不僅是一種技術分發方式,更是一種生態建設策略——當你的模型成為開發者的默認選擇時,你就掌握了AI基礎設施的話語權。從這個意義上說,gpt-oss的發布不僅是OpenAI的回歸,更是開源理念的一次重大勝利。

2026年的AI產業正在進入一個開源與閉源共存、互相促進的新階段。gpt-oss系列的問世,為這一新格局寫下了濃墨重彩的一筆。對於全球的AI開發者、研究者和創業者而言,一個更加開放、更加平等的AI未來,正在加速到來。