施耐德電機:2028 年人工智慧用電超越 2021 年冰島用電

作者 | 發布日期 2023 年 10 月 30 日 17:00 | 分類 AI 人工智慧 , 伺服器 , 網通設備 line share follow us in feedly line share
施耐德電機:2028 年人工智慧用電超越 2021 年冰島用電


因市場人工智慧需求龐大,法國重電大廠施耐德電機 (Schneider Electric) 估計,2023 年人工智慧用電計約 4.3GW,略低於賽普勒斯 2021 年用電 4.7GW,人工智慧用電將以 26%~36% 複合年增長率 (CAGR) 成長,到 2028 年人工智慧用電將從 13.5GW 增至 20GW,比冰島 2021 年用電還多。

施耐德電氣表示,2023 年全球所有資料中心用電達 54GW,人工智慧用電達 4.3GW。訓練和推理分配為 20% 功耗訓練,80% 推理,代表人工智慧用電占今年資料中心總用電約 8%。

展望 2028 年,施耐德預估資料中心總用電增至 90GW,人工智慧用電達 13.5GW~20GW。到 2028 年,人工智慧可能消耗資料中心總用電量 15%~20%,人工智慧用電比例五年內顯著增加,且訓練和推理比例略變,訓練 15%,推理 85%。

人工智慧功耗佔資料中心用電比例不斷提升,因人工智慧用電加劇、人工智慧 GPU 和 CPU 效能進步,以及資料中心硬體要求不斷提高。 Nvidia 2020 年 A100 功耗達 400W,2022 年 H100 功耗達 700W。除了 GPU,AI 伺服器還有 CPU 和網卡也會耗電。

人工智慧訓練相關都需大量運算資源,GPU、專用 ASIC 或 CPU 伺服器等。人工智慧叢集規模受模型複雜性和規模影響,也是用電量決定因素。越大人工智慧模型需要更多 GPU,增加用電需求。有 22,000 個 H100 GPU 的叢集用到約 700 個機架,基於 H100 的機架可安裝 8 套 HPE Cray XD670 GPU 加速伺服器,機架總用電量為 80kW。施耐德電氣指整個叢集就需約 31MW 電力,還不包括冷卻等基礎設施功耗。

這些叢集和 GPU 訓練時通常滿載執行,加上網路傳輸功耗也有關鍵作用,複雜網路基礎設施對支援分散式訓練高速數據傳輸至關重要,加劇人工智慧資料中心用電。

人工智慧運行需高耗電 ASIC、GPU、CPU、網卡和 SSD,散熱系統也是重大挑戰。有效冷卻解決方案對保持最佳性能,並防止硬體故障或失效都為關鍵,但液冷太貴,使資料中心用電需求增加。

施耐德電氣預估,資料中心人工智慧硬體用電不會降太快,機架功耗達 100kW 或更高,建議從傳統 120V / 208V 過渡到 240V / 415V,以適應人工智慧負載高功率密度。冷卻系統強烈建議從空冷轉向液冷,以提高處理器可靠性和能源效率,因應發展需求。

(首圖來源:Pixabay)