AI 競賽已從單純的晶片規格戰,正式跨入「兆瓦級(MW)」甚至「吉瓦級(GW)」的能源保衛戰。隨著 2026 年首批耗電量達 1GW 的超大型資料中心預計上線,電力供應已成為決定算力上限的關鍵瓶頸。輝達(NVIDIA)最新架構如 Rubin Ultra 的單一機櫃功率預計將飆升至 600kW,這迫使資料中心必須捨棄傳統交流電架構,轉向 800V 高壓直流(HVDC)供電與先進液冷技術。當前科技巨頭如 Meta、Google 紛紛搶占電力基建,顯示「能源即算力」已成為全球共識,電力基礎設施正從公用事業轉型為具備高成長動能的 AI 戰略資源。
這場算力願景的轉變,核心動機在於解決「電力牆」對模型演化速度的限制。當訓練與推理需求呈指數級成長,傳統電網已難以負荷動輒百倍的算力跳躍,這促使產業鏈權力結構重組。供應商不再只比拼晶片效能,而是比拼「從電網到晶片」的系統整合能力,這也是台達、鴻海等台廠積極佈局一站式資料中心與高壓電源模組的主因。長期來看,兆瓦級算力將導致 AI 競爭門檻從軟體研發拉高至國家級的能源調度能力,擁有穩定、低成本且高效能電力方案的企業或國家,才能在代理型 AI 與物理 AI 時代掌握實質主導權,避免因電力短缺而被迫退出賽局。