AI 需求持續看漲,2023 年全球 AI 伺服器出貨量年增近四成

作者 | 發布日期 2023 年 05 月 29 日 15:33 | 分類 AI 人工智慧 , GPU , 伺服器 line share follow us in feedly line share
AI 需求持續看漲,2023 年全球 AI 伺服器出貨量年增近四成


AI 伺服器及 AI 晶片需求同步看漲,TrendForce 預估 2023 年 AI 伺服器(含搭載GPU、FPGA、ASIC 等)出貨量近 120 萬台,年增 38.4%,占整體伺服器出貨量近 9%,至 2026 年占 15%,同步上修 2022~2026 年 AI 伺服器出貨量年複合成長率至 22%。AI 晶片 2023 年出貨量成長 46%。

TrendForce表示,NVIDIA GPU為AI伺服器市場搭載主流,市占率約60%~70%,其次為雲端業者自研AISC晶片,市占率逾20%。觀察NVIDIA市占率高的主因有三:一,不論美系或中系雲端服務業者(CSP),除了採購NVIDIA A100與A800,下半年需求也陸續導入H100與H800,尤其新機種H100與H800平均銷售單價約A100與A800的2~2.5倍,加上NVIDIA積極銷售自家整機解決方案。

二,高階GPU A100及H100高獲利模式也是關鍵,旗下產品AI伺服器市場已擁有主導權優勢,TrendForce研究,H100本身價差也依買方採購規模,會產生近5千美元差距。

三,下半年ChatBOT及AI運算風潮將持續滲透各專業領域(雲端/電商服務、智慧製造、金融保險、 智慧醫療及智慧駕駛輔助等)市場,同步帶動每台搭配4~8張GPU的雲端AI,以及每台搭載2~4張GPU的邊緣AI伺服器應用需求漸增,今年搭載A100及H100的AI伺服器出貨量年增率將逾五成 。

此外,從高階GPU搭載HBM看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,傳輸速度也較HBM2e快,提升整體AI伺服器系統運算效能。隨高階GPU如NVIDIA A100、H100;AMD MI200、MI300,以及Google自研TPU等需求皆逐步提升,TrendForce預估2023年HBM需求量年增58%,2024年有望再成長約30%。

(首圖來源:shutterstock)