AI 熱潮持續,液冷散熱躍升資料中心要角

作者 | 發布日期 2026 年 01 月 23 日 7:20 | 分類 AI 人工智慧 , 伺服器 , 材料、設備 line share Linkedin share follow us in feedly line share
Loading...
AI 熱潮持續,液冷散熱躍升資料中心要角

人工智慧(AI)不斷發展,資料中心冷卻需求也跟著上升。最新報導,許多主要科技公司全力以赴建設更大型 AI 模型,但卻面臨越來越重要的問題:資料中心過熱。「AI 超級工廠」出現後,此趨勢幾年內更會加劇。傳統資料中心維護和冷卻系統已無法滿足需求,若過熱停機,每分鐘可能造成高達 9,000 美元損失。

為了跟上高密度GPU集群步伐,升級資料中心越顯重要。液冷為現在主流解決方案之一,若建設得當,對AI用電力安全幫助越強。2023年美國資料中心消耗4.4%電力,到2028年更會增加三倍。AI模型訓練需數千顆強大晶片以最大容量運行,耗能驚人。

AI推理也依賴GPU,並造成大量餘熱。高能耗需求導致資料中心超出建議溫度範圍,使硬體損壞、非計劃性停機和昂貴維修費。傳統氣冷系統無法滿足下代AI需求,液冷故脫穎而出成為第一順位選擇。液冷能專為特定中央處理單元(CPU)和圖形處理單元(GPU)設計,提升整體熱管理效率,並減少冷卻基礎設施佔用空間。

儘管液冷有多項優勢,但安裝並非易事。系統需定期檢測污染物,並維持冷卻劑化學成分以防止腐蝕和造成沉積物。現代漏水檢測系統也不可少,以確保資料中心商馬上收到警報,保護敏感設備,避免昂貴的維修費。目前53%的IT領導者表示管理高密度AI基礎設施有技術或人力資源缺口,導致成本高昂的失誤和非計劃性停機。

AI使用率不斷增高,冷卻系統不再是選擇性設備,而是一開始就須納入設計、預算和團隊計畫。現在投資下代冷卻基礎設施的資料中心商,就能更有效部署強大AI系統,佔據先機。液冷系統不只是設備升級,而是決定哪些公司能實現AI承諾的基礎。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》