Blackwell 出貨在即,CoWoS 總產能持續看增,2025 年增率逾七成

作者 | 發布日期 2024 年 05 月 30 日 14:23 | 分類 AI 人工智慧 , GPU , 伺服器 line share follow us in feedly line share
Blackwell 出貨在即,CoWoS 總產能持續看增,2025 年增率逾七成


TrendForce 研究,NVIDIA Hopper 平台 H100 甫從第一季短缺逐漸紓解,屬同平台新品 H200 第二季後逐漸放量,第三季新平台 Blackwell 即將上市,第四季推展至資料中心客戶。但今年應仍以 Hopper 平台為主,含 H100、H200 等產品線;供應鏈導入 Blackwell 平台進度,預估第四季才會放量,占整體高階 GPU 比例低於 10% 。

TrendForce表示,屬Blackwell平台的B100等,裸晶尺寸(die size)是H100翻倍,估計台積電(TSMC)今年CoWos總產能年增到150%,隨著2025年成為主流後,CoWos產能年增率達七成,NVIDIA占比近半。HBM方面,NVIDIA GPU平台往前推進,H100主搭載80GB的HBM3,至2025年B200達搭載288GB的HBM3e,單顆容量成長近四倍。據三大原廠擴展規劃,2025年HBM生產量也將翻倍。

微軟、Meta、AWS首波採用GB200

TrendForce研究,以雲端服務業者(CSP)導入現況看,微軟、Meta、 AWS較積極,2025年GB200方案合計出貨量有機會逾30,000櫃,Google可能傾向先擴大自家TPU AI基礎設施。Blackwell平台備受市場期待,主要是有別於HGX或MGX單台AI伺服器,改推整櫃式,整合自家CPU、GPU、NVLink及InfiniBand等高速網通技術。GB200又分為NVL36及NVL72,每櫃分別搭載達36及72顆GPU,NVL72將為NVIDIA主推組態,但因設計較複雜,年底以NVL36先導入前期試煉, 以求快速進入市場(Time to Market)。

今年Tier-2資料中心及各國政府AI伺服器需求占比擴大至50%

據NVIDIA FY1Q25資料看,企業客戶、各國主權雲(Sovereign AI)或Tier-2資料中心客群需求也明顯提升。TrendForce表示,受限2023年CoWoS及HBM供應不及,如NVIDIA優先高階GPU供給大型雲端服務業者(Hyper CSP),以全球高階AI伺服器整體市場看來,2023年CSP合計AI伺服器需求量占比約65%。

至今年上半年GPU供貨短缺獲緩解後,伺服器品牌商如Dell、HPE需求占比擴大至19%;其他各地區Tier-2資料中心如CoreWeave、特斯拉等,或各國主權雲、超算中心專案等,合計需求占比將提高至31%,主因AI訓練或應用過程,可能涉及敏感性或資料隱私安全等議題,將來此市場也會扮演驅動AI伺服器出貨成長的關鍵。

(首圖來源:NVIDIA)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》