
TrendForce 最新《AI Server(伺服器)產業分析報告》指出,2024 年大型 CSPs 及品牌客戶等對於高階 AI 伺服器高度需求未歇,加上 CoWoS 原廠 TSMC 及 HBM 原廠如 SK 海力士、三星及美光逐步擴產下,第二季後短缺大幅緩解,連帶使 NVIDIA 主力方案 H100 的交貨前置時間(Lead Time)從先前動輒 40~50 週降至不到 16 週,TrendForce 預估 AI 伺服器第二季出貨量季增近 20%,全年出貨量上修至 167 萬台,年增率達 41.5%。
TrendForce表示,今年大型CSPs預算持續聚焦採購AI伺服器,進而排擠一般型伺服器成長力道,相較AI伺服器高成長率,一般型伺服器出貨量年增率僅1.9%。AI伺服器占整體出貨比重達12.2%,較2023年提升約3.4個百分點。若估算產值,AI伺服器營收成長貢獻程度較一般型伺服器明顯,2024年產值逾1,870億美元,成長率達69%,產值占整體高達65%。
從AI伺服器搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,以及中國本土業者如阿里雲、百度、華為等積極擴大自主ASIC 方案,促ASIC伺服器占整體比重今年提至26%,主流搭載GPU的AI伺服器占比約71%。
就AI伺服器搭載AI晶片供應商分布看,單看搭載GPU,NVIDIA市占率最高近九成,AMD市占率僅約8%。但若加計所有AI伺服器用AI晶片(含GPU、ASIC、FPGA),NVIDIA今年市占率約64%。
TrendForce調查,展望2025年市場高階AI伺服器需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100 / B200等)取代Hopper平台成為市場主流,此亦將帶動CoWoS及HBM等需求。以NVIDIA B100而言,晶片尺寸較H100翻倍,消耗更多CoWoS,2025年主要供應商台積電CoWoS生產量規模至年底總產能可達550k~600k,成長率近八成。以HBM用量看,今年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,搭載達288GB HBM3e,單位用量成長逾三倍,隨AI伺服器市場需求持續強勁,有望帶動2025年HBM整體供給量翻倍成長。
(首圖來源:Pixabay)