全球 AI 伺服器需求高漲,有望帶動 2024 年產值達 1,870 億美元、占市場比重約 65%

作者 | 發布日期 2024 年 07 月 17 日 14:20 | 分類 AI 人工智慧 , 伺服器 , 電腦 line share Linkedin share follow us in feedly line share
Loading...
全球 AI 伺服器需求高漲,有望帶動 2024 年產值達 1,870 億美元、占市場比重約 65%

TrendForce 最新《AI Server(伺服器)產業分析報告》指出,2024 年大型 CSPs 及品牌客戶等對於高階 AI 伺服器高度需求未歇,加上 CoWoS 原廠 TSMC 及 HBM 原廠如 SK 海力士、三星及美光逐步擴產下,第二季後短缺大幅緩解,連帶使 NVIDIA 主力方案 H100 的交貨前置時間(Lead Time)從先前動輒 40~50 週降至不到 16 週,TrendForce 預估 AI 伺服器第二季出貨量季增近 20%,全年出貨量上修至 167 萬台,年增率達 41.5%。

TrendForce表示,今年大型CSPs預算持續聚焦採購AI伺服器,進而排擠一般型伺服器成長力道,相較AI伺服器高成長率,一般型伺服器出貨量年增率僅1.9%。AI伺服器占整體出貨比重達12.2%,較2023年提升約3.4個百分點。若估算產值,AI伺服器營收成長貢獻程度較一般型伺服器明顯,2024年產值逾1,870億美元,成長率達69%,產值占整體高達65%。

從AI伺服器搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,以及中國本土業者如阿里雲、百度、華為等積極擴大自主ASIC 方案,促ASIC伺服器占整體比重今年提至26%,主流搭載GPU的AI伺服器占比約71%。

就AI伺服器搭載AI晶片供應商分布看,單看搭載GPU,NVIDIA市占率最高近九成,AMD市占率僅約8%。但若加計所有AI伺服器用AI晶片(含GPU、ASIC、FPGA),NVIDIA今年市占率約64%。

TrendForce調查,展望2025年市場高階AI伺服器需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100 / B200等)取代Hopper平台成為市場主流,此亦將帶動CoWoS及HBM等需求。以NVIDIA B100而言,晶片尺寸較H100翻倍,消耗更多CoWoS,2025年主要供應商台積電CoWoS生產量規模至年底總產能可達550k~600k,成長率近八成。以HBM用量看,今年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,搭載達288GB HBM3e,單位用量成長逾三倍,隨AI伺服器市場需求持續強勁,有望帶動2025年HBM整體供給量翻倍成長。

(首圖來源:Pixabay

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》