TrendForce 最新 AI 伺服器產業分析,2026 年因雲端服務業者(CSP)、主權雲需求持續穩健,對 GPU、ASIC 拉貨動能有所提升,加上 AI 推理應用蓬勃發展,全球 AI 伺服器出貨量估年增超過 20%,占整體伺服器比重上升至 17%。
觀察2025年AI伺服器出貨表現,因NVIDIA H20於中國市場受阻,以及GB300 / B300推動進度較原計畫延後,TrendForce微幅下修年增率至24%左右。AI伺服器產值方面,2025年受惠Blackwell新方案、GB200 / GB300機櫃較高價值的整合型AI方案,有近48%年成長。2026年GPU供應商積極推出整櫃型方案,以及CSP擴大投資ASIC AI基礎建設,AI伺服器產值有望較2025年再增加超過30%,營收占整體比重達74%。
分析AI晶片供應商競爭格局, 2025年NVIDIA仍占據約70%市場,然2026年因北美CSP、中國AI自研晶片力道更強,ASIC拉貨成長幅度將高於GPU,導致NVIDIA市占下滑。
2026年HBM消耗量年增逾70%
TrendForce表示,高階AI晶片記憶體主要配套HBM,中低階產品搭配繪圖DRAM。GPU需求維持高水位,且供應商產品不斷推陳出新,個別晶片搭載的HBM容量亦明顯提升,拉動HBM需求。以2025年AI晶片出貨量推估,HBM需求量年增達130%;2026年HBM消耗量持續增加,年成長仍有70%,主要驅動力包括B300、GB300、R100 / R200、VR100 / VR200滲透,加上Google TPU、AWS Trainium皆積極推至HBM3e世代。
至於HBM價格,2025年因NVIDIA / AMD晶片主要搭載HBM3e世代產品,ASIC也有升級至HBM3e的趨勢,需求相對熱絡,HBM3e銷售單價年增5%~10%。三星完成HBM3e驗證後,2026年呈三大原廠競爭局面,買方握有較大議價優勢,合約價恐有轉為年減的壓力。
HBM4已陸續進入送樣階段,後續進度仍待觀察,且買方正要啟動備貨,TrendForce預估2026年銷售單價高於HBM3e,供應商獲利空間較大。若明年三家原廠皆完成驗證,買賣雙方不排除再次議價。

(首圖來源:shutterstock)






