十億美元的信心投票

2026年2月3日至4日,Cerebras Systems正式對外宣布完成10億美元的H輪融資。這是該公司迄今為止規模最大的單輪融資,也是2026年AI晶片領域最受矚目的資本事件之一。本輪由對沖基金巨頭Tiger Global Management領投,知名風投機構Benchmark、資產管理公司Fidelity、成長型基金Altimeter Capital,以及晶片巨頭AMD均參與投資。

AMD的參與尤其引人注目。作為Nvidia在GPU市場的最大競爭對手,AMD選擇投資Cerebras而非單純依靠自身產品線來挑戰Nvidia的AI霸權,這一舉動傳遞了一個強烈的信號:即便是半導體產業的老牌巨頭,也認為AI晶片市場需要更多元化的技術路線。AMD此舉既是財務投資,也是戰略佈局——透過與Cerebras建立資本紐帶,AMD可以在未來的產品整合和客戶拓展中獲得更多選項。

從融資歷程來看,Cerebras自2016年成立以來已累計融資超過47億美元。這家總部位於加州桑尼維爾的公司,已經從一個學術概念發展為擁有量產產品和付費客戶的成熟企業。10億美元的H輪融資,是資本市場對其技術路線和商業前景的又一次重大信心投票。

$10億
H輪融資金額
4兆
WSE-3電晶體數量
90萬
單晶圓AI核心數
0
所需HBM記憶體模組

晶圓級運算:從根本上重新定義晶片設計

要理解Cerebras為何被視為Nvidia最具威脅性的挑戰者,必須先理解其核心技術——晶圓級引擎(Wafer-Scale Engine, WSE)的革命性設計理念。

在傳統的半導體製造流程中,一片12吋矽晶圓會被切割成數百甚至數千顆獨立的晶片(die),每顆晶片經過封裝後成為一個處理器。Nvidia的旗艦GPU H100,其晶片面積約為814平方毫米——這已經接近了光罩(reticle)尺寸的物理極限,被認為是單顆晶片在傳統製造工藝下所能達到的最大面積。

Cerebras的做法則完全顛覆了這一範式。WSE不切割晶圓,而是將整片矽晶圓作為一顆單一的巨型晶片來使用。一片標準的300毫米晶圓,面積約為46,225平方毫米——是Nvidia H100晶片面積的56倍以上。這意味著WSE-3可以在單一晶片上整合前所未有的運算資源:4兆個電晶體和90萬個專用AI核心。

這種設計並非簡單的「把晶片做大」。晶圓級運算需要克服一系列傳統晶片設計中不存在的工程挑戰:晶圓上的缺陷管理(任何一片晶圓都不可能完美無缺,WSE必須具備冗餘機制來繞過缺陷區域)、跨晶圓的通訊互連(替代傳統的封裝外部互連)、電力分配(為46,000多平方毫米的矽片均勻供電)、以及散熱管理(單晶圓的功耗可達數千瓦)。Cerebras團隊花了近十年時間逐一攻克這些技術難題。

消除記憶體瓶頸:WSE架構的核心優勢

如果說晶圓級的規模優勢僅僅是WSE的表面特徵,那麼其最深層的架構創新在於徹底消除了困擾所有傳統GPU的記憶體瓶頸。

在Nvidia的GPU架構中,運算核心與記憶體是物理上分離的。GPU晶片執行矩陣運算,而模型權重和中間數據則存儲在外部的高頻寬記憶體(HBM)中。每次運算都需要將數據從HBM搬運到GPU核心,計算完成後再寫回。這個「搬運」過程是當今AI計算中最大的效率殺手——即便是最先進的HBM3E,其頻寬也常常跟不上GPU核心的計算速度,導致寶貴的運算單元長時間處於等待狀態。業界將這一現象稱為「記憶體牆」(memory wall)。

「AI的真正瓶頸不是計算速度,而是資料搬運的速度。我們打造WSE的初衷,就是要讓記憶體與計算真正融為一體。」

—— Cerebras設計哲學的核心論述

WSE-3的解決方案是將所有記憶體直接整合在晶圓上,與運算核心緊密耦合。每個AI核心都擁有專屬的本地記憶體,數據無需跨越晶片邊界進行搬運。這種「記憶體在計算旁」的架構,使得WSE-3完全不需要外部HBM模組——這在當前HBM供應極度緊張、價格飆升的市場環境下,構成了巨大的競爭優勢。

考慮到當前全球HBM市場的現實狀況,這一架構優勢的價值尤為突出。SK Hynix、Samsung和Micron三大DRAM廠商正將大量產能從傳統DRAM轉向HBM,導致HBM價格持續高漲,交付周期大幅延長。Nvidia的客戶不僅要支付GPU本身的高額費用,還必須額外採購大量昂貴的HBM。而Cerebras的客戶則完全免除了這層成本和供應鏈風險。

WSE-3 vs 傳統GPU架構比較

  • 晶片面積:WSE-3約46,225mm² vs Nvidia H100約814mm²(56倍以上)
  • 電晶體數量:WSE-3達4兆 vs H100約800億(50倍)
  • AI核心數:WSE-3達90萬 vs H100約16,896個CUDA核心
  • 記憶體架構:WSE-3全部記憶體晶圓內建 vs H100依賴外部HBM3
  • HBM需求:WSE-3為零 vs 單顆H100需搭配80GB HBM3
  • 記憶體頻寬瓶頸:WSE-3幾乎消除 vs GPU受限於HBM頻寬上限

客戶版圖:國家實驗室、國防與企業AI

Cerebras並非僅停留在技術展示階段。其客戶基礎已涵蓋多個高價值領域,包括美國國家實驗室、國防部門以及大型企業的AI部署。

在科學計算領域,美國多個國家實驗室(包括勞倫斯利弗莫爾國家實驗室和阿貢國家實驗室)已部署Cerebras系統用於科學研究——從氣候模擬到核物理計算,WSE的大規模並行計算能力為科學家提供了傳統GPU集群難以比擬的效率。在國防領域,WSE架構的即時推論能力同樣受到重視,特別是在信號處理、態勢感知和即時決策支援等對延遲極為敏感的應用場景中。

最引人注目的合作或許是Cerebras與沙烏地阿拉伯的戰略夥伴關係。Cerebras正為沙國的國家級AI基礎設施提供算力支援,協助這個石油王國實現其雄心勃勃的AI轉型願景。這一合作雖然為Cerebras帶來了可觀的收入和地緣戰略意義,但也為公司招來了意想不到的麻煩——這一點在其IPO歷程中表現得尤為明顯。

IPO之路:從高調申請到審慎延遲

2025年9月,Cerebras向美國證券交易委員會(SEC)提交了IPO申請,計劃在公開市場上市。彼時,AI晶片公司的估值如日中天,市場對Nvidia替代方案的渴求達到頂峰,這似乎是一個完美的上市時機。

然而,事態的發展出乎許多人的預料。Cerebras的IPO進程因監管機構對其中國相關業務往來的審查而被延遲。作為一家處理尖端AI運算技術的美國公司,Cerebras與海外客戶的關係——特別是透過中間合作夥伴可能產生的與中國實體的間接聯繫——引發了美國外國投資委員會(CFIUS)和國會議員的關注。

這一延遲凸顯了AI晶片產業面臨的地緣政治現實。在美中科技競爭日益白熱化的背景下,任何涉及先進AI硬體的跨境業務都可能受到嚴格審查。Cerebras的經歷為其他準備上市的AI晶片公司敲響了警鐘:技術和財務表現固然重要,但地緣政治合規同樣可能成為影響資本市場進程的決定性因素。

競爭格局:Nvidia的護城河有多深?

Cerebras的10億美元融資發生在AI晶片市場競爭格局劇烈變動的時刻。要評估Cerebras的前景,必須將其置於更廣闊的競爭版圖中。

Nvidia仍是不可忽視的巨人。其下一代Vera Rubin架構預計將在2026年底至2027年推出,承諾在訓練和推論性能上實現又一次代際飛躍。Nvidia的最大護城河不是硬體本身,而是CUDA軟體生態系統——超過四百萬名開發者已深度綁定於CUDA框架,遷移成本極高。

AMD正以MI450系列加速器全力追趕。值得注意的是,Meta與AMD近期達成了一筆價值600億美元的AI晶片採購協議——這是歷史上規模最大的非Nvidia AI晶片交易。這筆交易本身就說明了一個事實:即便是最大的AI客戶,也在積極尋求降低對Nvidia的依賴。

Etched以其Sohu ASIC晶片走了另一條激進路線——完全為Transformer推論優化的專用晶片,聲稱性能達H100的20倍。Groq則以其LPU(Language Processing Unit)在低延遲推論市場開拓了獨特的定位。每一家挑戰者都從不同角度攻擊Nvidia的市場份額。

Meta與AMD的600億美元交易證明了一件事:即便是最忠實的Nvidia客戶,也不願意永遠繳納「Nvidia稅」。算力供應的多元化已從可選變為必要。

「Nvidia稅」與算力多元化的必然趨勢

「Nvidia稅」(Nvidia Tax)——這個在矽谷和華爾街日益流行的說法,精準地描述了當前AI產業面臨的結構性問題。當一家公司控制著全球超過80%的AI加速器市場時,其定價權幾乎是絕對的。Nvidia GPU的利潤率長期維持在60%至70%以上,這在半導體產業中是極為罕見的水平。

對於Meta、Google、Microsoft、Amazon這些每年在AI基礎設施上投入數百億美元的超大規模客戶而言,單一供應商的依賴不僅意味著成本上的溢價,更代表著供應鏈的脆弱性。任何Nvidia產能分配的波動、交付周期的延長,都可能直接影響這些公司的AI產品路線圖。

Cerebras的晶圓級架構為這些客戶提供了一個根本不同的選擇。WSE-3不僅在架構上與Nvidia GPU完全不同,其供應鏈也不依賴於當前最緊俏的HBM記憶體。這意味著選擇Cerebras的客戶可以同時實現算力供應商和記憶體供應鏈的雙重多元化——這在當前的地緣政治和供應鏈環境下,具有極高的戰略價值。

推論市場:下一個兆元戰場

Cerebras的融資和產品策略暗示了一個產業共識正在形成:AI推論市場的長期規模將遠超訓練市場。這一判斷背後的邏輯清晰而有力。

AI模型的訓練是一次性投入——一個模型訓練完成後,其權重可以被無限次使用。但推論是持續性的——每當用戶向ChatGPT提問、每當自動駕駛系統處理一幀畫面、每當推薦演算法為用戶排序內容,都需要執行一次推論計算。隨著AI應用滲透到越來越多的場景,推論計算的總量將以指數級增長。

業界估算,到2028年,全球AI推論市場的規模可能達到AI訓練市場的三至五倍。WSE-3的架構特性——超大規模並行計算、極低的記憶體延遲、以及消除HBM瓶頸——使其在推論工作負載上具備獨特優勢。特別是在需要即時回應的應用場景中,WSE架構的確定性延遲表現是傳統GPU集群難以匹敵的。

AI推論市場的結構性增長動力

  • 用戶規模爆發:全球AI應用活躍用戶超過十億,每次互動皆需推論算力
  • AI代理普及:自主代理需持續執行推論以感知環境並做出決策
  • 邊緣部署擴展:自動駕駛、工業機器人、智慧城市等場景要求即時推論
  • 模型規模膨脹:萬億參數模型的推論成本遠高於小型模型
  • 多模態趨勢:文字、影像、影片、語音的多模態推論需求倍增算力需求

技術風險與挑戰:巨型晶片的另一面

儘管WSE架構在概念上極具吸引力,但晶圓級運算並非沒有固有的風險和挑戰。

首先是良率問題。傳統晶片製造之所以將晶圓切割成小顆粒,部分原因正是為了管理缺陷——一片晶圓上即便有少量缺陷位點,大部分切割後的晶片仍然是完好的。而晶圓級晶片無法迴避任何一個缺陷,必須依靠內建的冗餘機制來屏蔽故障區域。Cerebras聲稱已經解決了這一問題,但隨著製程持續微縮,缺陷密度的控制將變得越來越具挑戰性。

其次是軟體生態系統的問題。Nvidia CUDA的統治地位意味著絕大多數AI模型和框架都是為GPU優化的。Cerebras必須持續投入巨資建設自己的軟體棧,確保主流AI框架能夠高效運行在WSE上。這不是一朝一夕可以完成的工作,而是需要長年累月的生態系統建設。

第三是系統層面的挑戰。WSE-3的功耗達到數千瓦級別,對散熱和供電系統有極高的要求。部署Cerebras系統的數據中心需要專門的基礎設施適配,這增加了客戶的採購決策複雜度和部署成本。

編輯觀點:Cerebras能否撼動Nvidia的王座?

Cerebras的10億美元H輪融資,是2026年AI硬體領域最重要的資本事件之一。在一個由Nvidia幾乎單方面定義規則的市場中,Cerebras代表了最為大膽的另類路線——不是在Nvidia的框架內做微小改進,而是從晶片設計的最底層提出一個完全不同的範式。

4兆電晶體、90萬AI核心、零HBM依賴——這些數字背後不僅是工程上的壯舉,更是對AI計算未來的一種根本性重新想像。當整個產業都在為HBM短缺和「Nvidia稅」焦頭爛額時,Cerebras繞過了這些問題,直接提供了一條截然不同的技術路徑。

然而,我們也必須保持清醒。半導體產業的歷史反覆證明,技術的先進性並不能自動轉化為商業上的成功。Nvidia的護城河——CUDA生態系統、客戶黏性、供應鏈控制力、以及持續數十年的研發積累——是任何挑戰者都不可低估的壁壘。Cerebras的IPO延遲也提醒我們,在當今的地緣政治環境下,技術公司需要在創新與合規之間走一條細窄的鋼索。

對於香港及亞太地區的AI企業和研究機構而言,Cerebras的崛起傳遞了一個重要信息:AI算力的供應格局正在從Nvidia的一家獨大走向多元化競爭。無論最終勝出的是晶圓級架構、ASIC專用晶片,還是某種尚未出現的全新技術,算力多元化的趨勢已經不可逆轉。提前了解和評估這些替代方案,將是未來幾年AI基礎設施決策中的關鍵能力。

推論市場的長期增長預期更為Cerebras的前景增添了想像空間。如果AI推論的市場規模確實將數倍於訓練市場,那麼WSE架構在推論工作負載上的獨特優勢,可能會在未來幾年逐步釋放出巨大的商業價值。這場關於AI計算未來的技術博弈,才剛剛進入最精彩的篇章。