HBM3E 明年占 HBM 需求近九成!記憶體廠力拚通過 NVIDIA 驗證

作者 | 發布日期 2024 年 10 月 16 日 16:10 | 分類 AI 人工智慧 , 伺服器 , 國際觀察 line share Linkedin share follow us in feedly line share
HBM3E 明年占 HBM 需求近九成!記憶體廠力拚通過 NVIDIA 驗證


調研機構 TrendForce 今(16 日)舉行「AI 時代 半導體全局展開──2025 科技產業大預測」研討會。TrendForce 分析師王豫琪指出,三大記憶體廠將擴大 HBM 產能,預期年增 117%,其中美光因基期較低,預期會有雙位數成長。

以產品比重來看,因為 NVIDIA 最新產品會逐步轉往 12 層 HBM3e,明年 HBM3e 將取代 HBM3 成主流產品,占整體 HBM 產品需求 89%,而 HBM3e 平均售價(ASP)約是 DRAM 產品三至五倍,待 HBM3e 量產,加上產能擴張,營收貢獻將逐季上揚。至於中國營收主要由 HBM2e 帶來貢獻。

目前三大記憶體廠的 12 層 HBM3e 都在 NVIDIA 送驗階段,預期後續驗證完成、良率提升後,能見度將大幅提升。

TrendForce 研究經理敖國鋒表示,NAND Flash 供應商經歷 2023 年鉅額虧損後,資本支出轉趨保守。同時,DRAM 和 HBM 等記憶體產品需求受惠 AI 浪潮,將排擠 2025年 NAND Flash 設備投資,使過去嚴重供過於求的市況將有所緩解。不過,AI 應用對高速、大容量儲存的需求日益增加,也將推動 enterprise SSD (eSSD) 市場的蓬勃發展。

針對伺服器市況,TrendForce 資深分析師鞏明德認為,今年 NVIDIA 高階 GPU 出貨量成長率將超過 150%,以 H200 等 H 系列為市場主力產品,至於 Blackwell 新平台將於明年上半年放量並成為主流,占比從 4% 拉高至84%。此外,在新一代 AI 晶片趨勢下,先進封裝將從 CoWoS-S 往 CoWoS-L 邁進、HBM3 轉往 HBM3e,也將明顯拉升液冷散熱方案滲透率。

觀察全球 AI 市場發展動態,受惠 2024 年 CSP 及品牌客群對建置AI基礎設施需求強勁,全球 AI 伺服器(含搭載GPU、FPGA、ASIC等)出貨年成長可達 42%;2025 年受雲端業者及主權雲等需求帶動,出貨量可望再成長約 28%,推動 AI 伺服器占整體伺服器比例提高至近 15%。中長期來看,預期在各種雲端 AI 訓練及推論應用服務推進下,2027 年 AI 伺服器占比有機會逼近 19%。

針對液冷散熱技術,TrendForce 分析師邱珮雯認為,隨著運算能力提升,液態冷卻解決方案在資料中心逐步重要。在 Blackwell 新平台下,GB200 NVL72 機櫃方案的熱設計功耗(TDP)高達約 140kW,須採用液冷方案才可有效解決散熱問題,預計初期將以水對氣(Liquid-to-Air,L2A)方式為主流,帶動整體 AI 晶片的液冷散熱滲透率,從 2024 年的 11% 提升至 2025 年的 24%。

此外,CSP 自研高階 ASIC 以 Google 最積極採用液冷方案,其 TPU 晶片同時使用氣冷與液冷解決方案,其他 CSP 仍以氣冷為主要散熱方案。中國供應鏈部分,則以阿里巴巴採用液冷散熱解決方案最為積極。長期來看,全球對 ESG 逐漸重視,將加速帶動散熱方案由氣冷轉液冷形式。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》