2026 年全球八大 CSP 合計資本支出將破 7,100 億美元,Google TPU 引領 ASIC 布局

作者 | 發布日期 2026 年 02 月 25 日 16:45 | 分類 AI 人工智慧 , 伺服器 , 財經 line share Linkedin share follow us in feedly line share
Loading...
2026 年全球八大 CSP 合計資本支出將破 7,100 億美元,Google TPU 引領 ASIC 布局

TrendForce 最新 AI 伺服器產業研究,為加速 AI 應用導入與升級,全球雲端服務供應商(CSP)持續加強投資 AI 伺服器及相關基礎建設,2026 年八大主要 CSP 合計資本支出將超過 7,100 億美元,年增率約 61%。業者除持續採購 NVIDIA、AMD GPU 方案,也擴大導入 ASIC 基礎設施,以確保各項 AI 應用服務適切性,以及資料中心建置成本效益。

八大CSP為美系Google、AWS、Meta、微軟、甲骨文及中系騰訊、阿里巴巴、百度。TrendForce預估,今年Google母公司Alphabet資本支出有望逾1,783億美元,年增高達95%。Google較其他CSP更早投入自研ASIC,已累積相當研發優勢,今年TPU主力將轉進至v8新平台。受惠Google Cloud Platform、Gemini等AI應用帶動TPU需求,2026年TPU於Google AI伺服器出貨占比將上升至近78%,擴大與GPU AI伺服器差距。Google也是各CSP唯一ASIC機種出貨比例高於GPU機種的業者。

亞馬遜近期則上調NVIDIA GB300、V200整櫃系統採購規模,反映加速導入更高功耗與密度的GPU平台,以因應雲端AI訓練、推理服務擴張,2026年GPU機種於自家AI伺服器占比將達近60%。自研ASIC部分,新Trainium 3將於第二季起接續Trainium 2 / 2.5放量,系統端因尚需配合軟體成熟度、產品驗證等,出貨動能可能到下半年才較顯著。

TrendForce估2026年Meta資本支出將破1,245億美元,年增77%。AI伺服器也以NVIDIA、AMD方案為主,GPU機種占比仍將高達80%;另欲推進自研ASIC,以降低單位算力成本、分散對單一供應商的依賴,惟據供應鏈評估,MTIA仍受軟硬體系統調教耗時等影響,恐面臨實際出貨不如預期的風險。

微軟看好大模型訓練推理的長期需求,主要購置NVIDIA整櫃解決方案支持AI伺服器出貨。日前發表自研晶片Maia 200,鎖定高效率AI推理應用。甲骨文則因應Stargate、OpenAI等擴增AI資料中心專案,持續佈建GPU整櫃式方案。

分析中系CSP動態,儘管字節跳動未公開揭露2026年資本支出細節,TrendForce估一半以上資金將採購AI晶片相關。NVIDIA H200可望成為其AI伺服器的主要方案,但仍須視後續美國、中國審查狀況而定。字節跳動同時擴大導入本土AI晶片,主要採Cambricon等方案。

騰訊外購NVIDIA等GPU方案支撐雲端、生成式AI需求,也同時與本土業者合作發展ASIC自主方案,聚焦網通應用、資料中心基礎架構、線上AI應用服務等場景,以分散算力來源並提升系統整合彈性。

阿里巴巴和百度皆積極自研ASIC AI晶片。阿里巴巴旗下有平頭哥、阿里雲事業等,提供公有雲和其他線上服務的AI應用基礎設施,並開發千問(通義)LLM及App應用軟體等,同時針對自用雲端、 企業和消費性用戶。百度2026年後陸續導入昆侖新方案, 鎖定大規模AI訓練或AI推理應用,並嘗試發展AI伺服器cluster超節點天池系列,連結可達數百顆AI晶片以強化整體AI系統運算能力。

(首圖來源:AI)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》