Cloud AI Server 需求強勁,促 NVIDIA FY2Q24 資料中心業務占比首次突破 76%

作者 | 發布日期 2023 年 08 月 24 日 18:06 | 分類 AI 人工智慧 , GPU , 伺服器 line share follow us in feedly line share
Cloud AI Server 需求強勁,促 NVIDIA FY2Q24 資料中心業務占比首次突破 76%


NVIDIA 最新財報(FY2Q24)顯示,資料中心業務達 103.2 億美元,季成長率 141%,年成長率更高達 171%,且 NVIDIA 看好後續成長力道。TrendForce 認為,NVIDIA 高營收成長動力來自資料中心 AI 伺服器解決方案,主力產品有 AI 加速晶片 GPU、AI 伺服器參考架構 HGX 等,均為大型資料中心的 AI 基礎設施。

TrendForce預期,NVIDIA將進一步整合軟硬體資源,更細緻將高階及中低階GPU AI加速晶片,與各ODM或OEM綁定合作軟硬體系統認證模式。除了加速CSP雲端AI伺服器基礎設施布建,也和VMware等合作Private AI Foundation等方案,將觸角延伸至邊緣企業AI伺服器市場,以支撐今明兩年資料中心業務穩定成長。

Cloud AI強勁需求驅動,NVIDIA資料中心業務占比超過76%

NVIDIA近年積極布局資料中心業務,FY4Q22資料中心業務營收約占42.7%,尚落後Gaming業務營收約2個百分點,FY1Q23後正式超越Gaming業務,占比逾45%。今年起各大CSP大舉投資ChatBOT及公有雲各種AI服務基礎設施後,NVIDIA更直接受惠,FY2Q24資料中心業務營收占比一舉突破76%。

NVIDIA將分攻雲端及邊緣資料中心AI應用市場

TrendForce觀察,預估NVIDIA高階GPU產品銷售策略,將於下半年後轉變,原高階AI伺服器主打搭載A100及H100,市場需求大好下,改成主攻售價更高的H100,才能有效刺激資料中心營收向上。

中階GPU方面,以近期L40s為主打方案,有幾個策略意義。首先,高階H100系列受限於CoWoS、HBM等產能有限,L40s搭配GDDR記憶體,不須CoWoS封裝,可加速導入中階AI伺服器市場,補足A100 PCIe介面對企業客戶需求缺口。

其次,L40s也主攻企業客戶,不需使用如ChatGPT龐大的參數模型,主攻較小型化(約數十billion至百billion參數量以下)各專業領域AI Training應用,亦針對邊緣AI Inference或影像分析等使用。最後,中國客戶因地緣政治問題,導致高階GPU H系列供應受阻風險,可用L40s補足。低階GPU系列以L4或T4系列為主打,邊緣AI伺服器即時AI推論或影像分析使用,並更強調較低價、高C/P值產品特性。

HGX及MGX等AI伺服器參考架構是NVIDIA下半年主攻AI方案的利器

TrendForce觀察,近期NVIDIA除對核心AI晶片GPU更細緻化定位,也積極主推HGX及MGX等方案,這並不是伺服器產業鏈首見作法,但NVIDIA有機會穩固領先利基。NVIDIA藉高度整合GPU加上CUDA建立完整A I生態系,處於絕對領先位置,故對既有伺服器供應鏈有較強議價能力,要求ODM如英業達、廣達、工業富聯、緯創、緯穎等,或品牌業者Dell、Supermicro、技嘉等,依NVIDIA HGX或MGX參考設計,且需經NVIDIA該AI伺服器參考架構的軟硬體認證。NVIDIA可整合兜售Arm CPU Grace及NPU或AI Cloud Foundation等軟硬體解決方案。

值得注意的是,對ODM或OEM而言,預期NVIDIA今明兩年雲端服務業者AI伺服器主力市場將大有斬獲,有利拉抬整體AI伺服器出貨量及營收成長,但隨著NVIDIA策略性導入HGX或MGX等標準化AI伺服器架構,也使ODM等業者將因AI伺服器核心產品架構較趨同質化使彼此爭取CSPs等訂單競爭態勢更白熱化。觀察大型CSPs如Google、AWS有擴大導入自研ASIC AI加速晶片趨勢,亦可能侵蝕部分NVIDIA GPU市場,為NVIDIA持續推動不同定位GPU產品及整體方案,將AI業務積極拓展至Tier 2資料中心如CoreWeave等及邊緣企業客戶的主因之一。

(首圖來源:NVIDIA)