隨著全球 AI 應用從模型訓練轉向大規模推論,北美雲端服務供應商(CSP)如 Google、Meta 及 Amazon 積極擴大自研 ASIC 晶片部署,帶動 ASIC 伺服器出貨量顯著攀升。根據研調機構預估,2026 年 ASIC AI 伺服器占比將突破 27%,增速超越傳統 GPU 機種。這股硬體架構的轉變,直接推升了對高功率密度、高效率電源管理的需求,特別是負責核心電壓轉換的 DC-DC 模組。由於 ASIC 具備高度客製化特性,其電源設計需針對特定算力需求進行優化,使得 DC-DC 模組在伺服器主板與加速卡上的滲透率與平均單價(ASP)同步成長,成為支撐供應鏈長線營收的關鍵動能。
CSP 業者捨棄通用型 GPU 轉向自研 ASIC,核心動能在於追求更高的算力能效比(Performance per Watt)與更低的總體持有成本(TCO)。在推論時代,ASIC 能針對特定演算法優化,減少不必要的功耗,而這類高電流、低電壓的運算環境,對 DC-DC 模組的瞬態響應與散熱效率提出了極高要求。從產業鏈角度看,電源模組的升級不僅是規格提升,更是進入門檻的跨越;隨著伺服器架構由 12V 轉向 48V 供電,DC-DC 模組必須整合更先進的封裝技術以縮小體積並降低損耗。這種技術迭代確保了電源廠商在 AI 基礎設施擴張週期中,擁有比傳統伺服器更穩固的獲利空間與議價能力,形成長期且具韌性的成長曲線。