
TrendForce 最新研究,AI 伺服器需求帶動北美四大 CSP 加速自研 ASIC 晶片,平均一兩年就會推出升級版。中國 AI 伺服器市場則受 4 月美國新晶片出口管制影響,採購 NVIDIA、AMD 等晶片比例會從 2024 年約 63% 降至 2025 年約 42%,中國本土晶片供應商如華為有中國 AI 晶片政策支持,今年占比提升至 40%,幾乎與外購晶片比例分庭抗禮。
TrendForce表示,CSP為因應AI工作負載規模逐步擴大,同時計畫降低高度依賴NVIDIA與AMD,故積極投入ASIC開發,以便達控制成本、性能和供應鏈彈性,改善營運成本支出。
觀察美系四大CSP的AI ASIC進展,居領先地位的Google已推出TPU v6 Trillium,主打能效比及AI大型模型最佳化,今年將大幅取代TPU v5。開發新產品部分,Google從與博通單一夥伴模式,新增與聯發科合作,轉成雙供應鏈布局,提升設計彈性、降低依賴單一供應鏈風險,也有助增加高階先進製程布局。
AWS以與Marvell合作設計的Trainium v2為主力,支援生成式AI與大型語言模型訓練應用,也和Alchip合作Trainium v3開發。TrendForce預估今年AWS的ASIC出貨量將大幅成長,年增表現為美系CSP最強。
Meta成功部署首款自研AI加速器MTIA後,與博通共同開發下代MTIA v2。由於Meta對AI推論負載具高度客製化需求,MTIA v2特別聚焦能效最佳化與低延遲架構,確保兼顧推論效能與營運效率。
微軟AI伺服器建置仍以搭載NVIDIA GPU解決方案為主,但也加速ASIC開發,Maia系列晶片主要最佳化Azure雲端平台的生成式AI應用與其他服務,下代Maia v2設計也定案,由GUC負責後段實體設計及後續量產。除了持續與GUC深化合作,微軟也引入Marvell共同參與設計開發Mai a v2進階版,強化自研晶片布局,並有效分散開發時風險。
中國AI供應鏈自主化加速
分析中國自主化AI方案,華為積極發展昇騰晶片系列,主要針對內需市場,應用層面含LLM訓練、地方型智慧城市基礎建設、大型電信商雲端AI應用等。國家型專案支持及網路、DeepSeek相關LLM AI應用蓬勃發展,長期或撼動NVIDIA等中國AI市場領先地位。
寒武紀的思元(MLU)AI晶片系列, 亦瞄準雲端業者AI訓練與推理等應用。觀察寒武紀2024年陸續與大型CSP進行前期測試驗證可行性後,今年逐步推動思元AI方案至雲端AI市場。
TrendForce表示,美國限制出口中國高階AI晶片持續升級,中系CSP也加速發展自研AI ASIC。阿里巴巴旗下平頭哥(T-head)推出Hanguang 800 AI推論晶片,百度量產Kunlun II後,著手開發Kunlun III,主打高效能訓練與推論雙支援架構。騰訊除了自家AI推論晶片Zixiao,亦採策略投資的IC設計公司Enflame解決方案。
地緣政治與供應鏈重構背景下,突顯中國晶片供應商華為、寒武紀及各CSP投入自研ASIC的必須性與重要性,帶動AI伺服器市場朝中國和非中國(Out-of-China) 兩大生態體系發展。
(首圖來源:shutterstock)