
外媒報導,Google、Meta 等大型科技公司正在對主導人工智慧 (AI) 晶片市場地位的 GPU 大廠輝達 (NVIDIA) 發起反擊。隨著這些公司加快自主晶片研發,以減少對輝達晶片的依賴,預計大型科技公司客製化晶片 (ASIC) 的出貨量,最早將在 2026 年就將超過輝達的 AI GPU。
根據韓國朝鮮日報的報導,ASIC 是一種專注於特定 AI 服務,而非 AI GPU多功能性的晶片。它僅針對必要的計算進行硬體優化,因此與 GPU 相比,它具有更高的功率效率並顯著節省成本。而根據日本野村證券 27 日報導,Google 自家 AI 晶片 TPU 預計 2025 年出貨量預計將達到 150 萬至 200 萬顆,亞馬遜旗下的網路服務 (AWS) 的 ASIC 晶片出貨量預計將達到 140 萬至 150 萬顆。總計,兩家公司加起來的出貨量接近輝達每年 AI GPU 供應量(約 500 萬至 600 萬顆)的一半。
至於在 2026 年,隨著 Meta 等其他科技巨頭的積極加入,ASIC AI 晶片的總出貨量預計將超過輝達的 AI GPU。目前,輝達占據了 AI 伺服器市場 80% 以上的比例,使得載用 ASIC 晶片的伺服器占比仍僅為 8%~11%。然而,從晶片出貨數量來看,市場格局正在迅速變化。
大型科技公司加速自主晶片研發的原因是,他們希望擺脫被稱為「輝達稅」的高成本結構。在本月的一次活動中,輝達執行長黃仁勳強調了該公司 AI 晶片的優越性,還表示如果 ASIC 不比購買好,為什麼要自己做呢?然而,大型科技公司正在加強對自主晶片的投資,以確保長期的成本效益和供應穩定性。
報導表示,大型科技公司關注 ASIC 晶片的最大優勢是「總擁有成本 (TCO)」的降低情況。業界分析,與同等級的 AI GPU 相比,ASIC 可達到 30% 至 50% 的 TCO 降低。它不僅可以顯著降低 GPU 晶片的採購成本,還可以顯著降低包括功耗在內的營運成本。事實上,Google 表示,TPU 的單位功耗效能比 輝達的 AI GPU 高出 3 倍。此外,如果使用內部設計的晶片,則可以不受外部變數的影響,根據自己的服務計畫穩定的採購晶片。
目前,Google 是首家自主研發 AI 晶片的公司。Google 於 2016 年首次發布了其 AI 專用晶片TPU,並將其應用於自身服務。隨後,包括 Meta、亞馬遜和微軟等大多數大型科技公司都在積極進軍 ASIC 晶片的開發。根據外資摩根大通的估計,2025 年全球 AI ASIC 晶片市場規模將達到約 300 億美元,並預測未來年平均成長率將超過 30%。
報導強調,Meta 計劃於 2025 年第四季發布由博通設計的下一代高效能 ASIC 晶片 MTIA T-V1。該晶片目的超越輝達的下一代 Rubin 架構 AI GPU。2026 年年中,晶片面積翻倍的 MTIA T-V1.5 將上市,2027 年將發布性能壓倒性進步的 MTIA T-V2,其功耗將達到一台伺服器,相當於 50 戶普通家庭用電量(170kW)的水平。不過,Meta 的計畫也面臨著實際挑戰。Meta 的目標是在 2025 年年底和 2026 年之前出貨 100 萬到 150 萬顆 ASIC,但台積電目前的先進封裝 (CoWoS) 產能僅為 30 萬到 40 萬顆左右,因此供應瓶頸在所難免。
相較於 ASIC 的步步進逼,輝達也毫不示弱。它最近向外界開放了其專有的NVLink協議,使第三方中央處理器 (CPU) 或 ASIC 能夠輕鬆地與輝達 GPU 連接。這被解讀為一種策略,目的為防止大型科技公司完全退出,並鼓勵其能留在輝達生態系統內。此外,數十年來累積的軟體生態系統 CUDA 也被認為是輝達獨有的武器,大型科技公司無法僅憑 ASIC AI 晶片在短期內攻克它。相關半導體市場人士表示,當 AI 脫離輝達的框架,運行在針對每項服務進行優化的 ASIC AI 晶片上時,消費者將獲得更快、更精細的體驗。而且,隨著 AI 服務創新速度的加快,大型科技公司減少對輝達的依賴是 AI 產業走向成熟的必然過程。
(首圖來源:科技新報攝)