
Arm 近期發布《AI 就緒指數報告》(AI Readiness Index Report)中指出,AI 工作負載極度耗能,通常仰賴消耗大量電力以供運算與冷卻的資料中心。據估計,AI 工作負載約占資料中心總用電量的 10-20%。這樣的需求引發了與碳排放相關的永續性問題。
從目前看,AI 相關的能源效率遇到兩大挑戰,分別是資料中心耗電量與碳足跡。首先,訓練大型 AI 模型所需的電力極其驚人,如訓練單一大型語言模型,耗能可達數百戶家庭一整年的用電量,且冷卻系統本身也相當耗電;碳足跡部分,由於 AI 對環境的衝擊相當巨大,已成為廣泛應用的一大障礙,根據國際能源總署(IEA)資料,現代資料中心約貢獻全球溫室氣體排放量的 1%。
為了解決這些電力消耗上的挑戰,AI 廠商與整合商主要採兩種方式:第一種是採用節能晶片,透過晶片設計創新來緩解能源效率問題,如低功耗的 Arm 架構以最小化能源消耗,來提升每瓦效能,同時不犧牲運算能力;第二種則是透過永續資料中心,採用可再生能源供電的模組化資料中心,或使用先進冷卻技術與虛擬化技術也能提升運作效率。
Arm 指出,目前 AI 資料中心正轉型為使用太陽能與風能等可再生能源。此轉型不僅能減少溫室氣體排放,也與全球永續發展目標保持一致。像 Google 與 Microsoft 等公司已承諾其資料中心將 100% 使用可再生能源,為業界其他基礎設施供應商樹立了標竿。
此外,Google 最近與 Kairos Power 合作,計畫在其 AI 資料中心部署小型核能反應爐;同時,Microsoft 正資助重啟三哩島(Three Mile Island)的一座停機反應爐,預計於 2028 年為其營運提供電力。
Arm 認為,隨著 AI 應用日益龐大且複雜,AI 技術基礎設施顯然必須隨之演進。在電力與效能平衡、大規模資料處理與降低延遲等關鍵基礎設施挑戰上,業界已透過硬體與設計創新取得重大突破,而永續性成為重中之重,必須透過減少 AI 營運的環境衝擊來實現。
(首圖來源:shutterstock)