NVIDIA Blackwell 新平台需求看增,帶動 2024 全年台積電 CoWoS 總產能提升逾 150%

作者 | 發布日期 2024 年 04 月 16 日 14:40 | 分類 GPU , 半導體 , 晶片 line share Linkedin share follow us in feedly line share
NVIDIA Blackwell 新平台需求看增,帶動 2024 全年台積電 CoWoS 總產能提升逾 150%


NVIDIA 新一代平台 Blackwell,包含 B 系列 GPU 及整合 NVIDIA 自家 Grace Arm CPU 的 GB200 等。TrendForce 指出,GB200 的前一代為 GH200,皆為 CPU+GPU 方案,主要搭載 NVIDIA Grace CPU 及 H200 GPU,但以 GH200 而言,出貨量估僅占整體 NVIDIA 高階 GPU 約 5%。目前供應鏈對 NVIDIA GB200 寄予厚望,預估 2025 年出貨量有機會突破百萬顆,占 NVIDIA 高階 GPU 近 4~5 成。

不過,NVIDIA雖計劃下半年推出GB200及B100等產品但上游晶圓封裝須採更複雜高精度需求的CoWoS-L,驗證測試過程較耗時。此外,AI伺服器整機系統,B系列也需耗費更多時間最佳化,如網通、散熱運轉效能,GB200及B100等產品要等到第四季至2025年第一季較有機會放量。

CoWoS方面,由於NVIDIA的B系列含GB200、B100、B200等將耗費更多CoWoS產能,台積電(TSMC)亦提升2024全年CoWoS產能需求,預估至年底每月產能將逼40k,相較2023年總產能提升逾150%;2025年規劃總產能量有機會幾近倍增,其中NVIDIA需求占比將逾半數。而Amkor、Intel等目前主力技術尚為CoWoS-S,主攻NVIDIA H系列,短期內技術較難突破,故近期擴產計畫較為保守,除非未來能夠拿下更多NVIDIA以外的訂單,如雲端服務業者(CSP)自研ASIC晶片,擴產態度才可能轉為積極。

NVIDIA及AMD AI發展加速HBM3e下半年成市場主流

HBM方面,從NVIDIA及AMD近期主力GPU產品進程及搭載HBM規格規劃變化來看,TrendForce認為2024年後將有三大趨勢。其一,「HBM3進階到HBM3e」,預期NVIDIA將於今年下半年開始擴大出貨搭載HBM3e的H200,取代H100成為主流,隨後GB200及B100等亦將採HBM3e。AMD則規劃年底前推出MI350新品,期間可能嘗試先推MI32x等過度型產品,與H200相抗衡,均採HBM3e。

其二,「HBM搭載容量持續擴增」,為了提升AI伺服器整體運算效能及系統頻寬,將由目前市場主要採用的NVIDIA H100(80GB),至2024年底後將提升往192~288GB容量發展;AMD亦從原MI300A僅搭載128GB,GPU新品搭載HBM容量亦將達288GB。

其三,「搭載HBM3e的GPU產品線,將從8hi往12hi發展」,NVIDIA的B100、GB200主要搭載8hi HBM3e,達192GB,2025年則將推出B200,搭載12hi HBM3e,達288GB;AMD將於今年底推出的MI350或2025年推出的MI375系列,預計均會搭載12hi HBM3e,達288GB。

(首圖來源:輝達

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》