業界首發:HBM4量產出貨

Samsung Electronics於2月12日宣布,已開始業界首次HBM4商業量產出貨。HBM4是第六代高頻寬記憶體(High Bandwidth Memory),代表了AI計算基礎設施的關鍵升級。在AI模型規模持續擴大的背景下,記憶體頻寬已成為制約模型推理性能的核心瓶頸之一。

Samsung搶先量產HBM4,在與SK hynix和Micron的HBM競爭中佔得先機。根據產業分析師數據,2025年第二季度SK hynix以62%的市場份額領先,Micron佔21%,Samsung僅佔17%。HBM4的首發量產是Samsung扭轉市場地位的關鍵一步。

HBM4關鍵性能規格

  • 處理速度:11.7Gbps(超出業界標準8Gbps 46%)
  • 最高速度:可進一步提升至13Gbps
  • 單堆疊頻寬:最高3.3TB/s(較HBM3E提升2.7倍)
  • 堆疊層數:12層
  • 容量:24GB至36GB
  • 能效:較HBM3E提升40%
  • 散熱改善:熱阻降低10%、散熱提升30%

NVIDIA Vera Rubin的記憶體基石

Samsung的HBM4首批出貨目標非常明確——NVIDIA即將在2026年下半年推出的下一代AI加速器Vera Rubin。這批2月份出貨的HBM4晶片將立即用於Vera Rubin加速器的性能演示,預計在3月的GTC 2026大會上亮相。

然而Samsung面臨的競爭壓力不容忽視。據產業報導,SK hynix已確保了NVIDIA Vera Rubin平台約70%的HBM4需求。Samsung需要在性能、良率和產能上持續展示優勢,才能爭取更大的供應份額。

製程與技術突破

Samsung的HBM4採用了其最先進的第六代10奈米級DRAM製程(1c),在量產初期就實現了穩定的良率和業界領先的性能,且無需額外的重新設計。此外,Samsung透過低電壓TSV(矽穿孔)技術和PDN(電源分配網路)優化,實現了40%的能效提升,同時熱阻降低10%、散熱能力提高30%。

這些熱管理改進對AI數據中心至關重要——隨著AI加速器的功耗持續攀升,記憶體模組的散熱能力直接影響系統的穩定性和能源效率。

AI記憶體市場展望

Samsung預期2026年HBM銷售額將是2025年的三倍以上,並已在積極擴充產能。在產品路線圖方面,HBM4E樣品預計在2026年下半年開始送樣,定制化HBM樣品將在2027年送達客戶。更遠期的HBM5也已進入研發階段。

AI記憶體正從「供應充足」轉向「策略性資源」。隨著AI模型的參數量和推理需求持續增長,高頻寬記憶體的供應將成為決定AI基礎設施擴張速度的關鍵因素。對於NVIDIA、AMD等AI晶片廠商而言,確保HBM供應鏈的穩定性已成為最優先的策略任務。