隨著生成式 AI 算力需求暴增,資料中心正迎來前所未有的能耗與散熱挑戰。NVIDIA 下世代 Rubin 架構晶片 TDP 預計將飆升至 2,300W,帶動單一機櫃功耗從傳統的 20kW 衝向 300kW 以上,這已遠超傳統氣冷系統的解熱極限。目前業界正加速轉向液冷技術,特別是直觸式液冷(D2C)已成為主流,旨在將能源使用效率(PUE)從 1.5 壓低至 1.2 甚至更低。此外,超大規模資料中心規模已邁入 1GW 等級,電力供應與散熱效率不再只是配套,而是決定算力能否如期交付的關鍵指標。
電力與散熱已從基礎設施轉變為 AI 競爭的核心戰略資產。當「能源即算力」成為共識,資料中心營運商的重心正從單純採購 GPU 轉向極致的熱管理與電力轉換效率。導入 800V 高壓直流(HVDC)架構與溫水液冷技術,本質上是為了在有限的電網容量下,榨取最高的算力密度。這股趨勢正重塑供應鏈價值,散熱廠商的角色從零組件供應商躍升為系統整合夥伴。未來,能有效解決「散熱牆」並實現低 PUE 的業者,將在 AI 超級工廠的建置潮中掌握定價權與市場主導地位。