AI 伺服器用電量等於一小國,研究:沒必要每個 App 都有 AI

作者 | 發布日期 2023 年 10 月 12 日 9:40 | 分類 AI 人工智慧 , 淨零減碳 line share follow us in feedly line share
AI 伺服器用電量等於一小國,研究:沒必要每個 App 都有 AI


人工智慧將會成為人類的第二大腦,但也是頭碳排怪獸。數據科學家分析,到 2027 AI 伺服器每年使用的電力相當於阿根廷、荷蘭和瑞典等小國一年的用電量,而且這還是保守估計,作者提醒,每個人應該認真思考 AI 的必要性。

阿姆斯特丹自由大學商業與經濟學院博士候選人 Alex de Vries,他也是研究公司 Digiconomist 創辦人,定期公布比特幣能源消耗指數。這次他想知道 AI 伺服器的電力消耗量,但資料太少,他只能透過 Nvidia A100 伺服器預計銷量計算電力消耗,Nvidia 占 AI 晶片市場 95%

研究基於 2027 年 Nvidia 可能會出貨 150 萬台此類伺服器,乘以伺服器的用電量,估計屆時 AI 伺服器電力消耗與荷蘭、瑞典等小國一年用電量一樣多。研究中特別強調推理階段,他說先前研究關注模型訓練階段的用電量,但他認為,推理階段消耗的能源其實更可觀。

ChatGPT 為例,OpenAI 需要 3,617 台基於 Nvidia HGX A100 平台的伺服器,總共配備 28,936 GPU,等於每天的能源需求為 564 MWh。相較之下,GPT-3 模型訓練階段估計所使用的電量為 1,287 MWh

研究假設是市場對 AI 的興趣不減,以及 AI 晶片的可用性,但是作者認為,由於 Nvidia 生產能力有限,因此當前的硬體和軟體全面採用 AI 不太可能迅速發生。但即使 Nvidia 晶片供應有限是 AI 成長的瓶頸,企業也不會停止 AI 發展,現在都急於尋找替代來源。

一些專家已呼籲企業在設計下一代 AI 硬體和軟體時應考慮電力消耗,但專家悲觀認為,市場競爭激烈,企業不可能有餘裕考慮環境影響。除了電力問題,為了冷卻資料中心的水量也非常可觀,研究發現,每次使用聊天機器人回答問題,就需要 1 瓶水來冷卻。根據微軟公布的資訊,由於資料中心冷卻需求增加,去年用水量大增 34%Gogole 也報告 20% 的成長,加州大學研究人員認為是生成式 AI 使用增加導致。 

加州新法逼企業更透明

加州與氣候有關的法案一直走在世界之先,最近加州州長 Gavin Newsom 簽署兩項重要的氣候揭露法,規定所有在加州開展業務的大公司,包括 OpenAI Google 等 AI 密集型公司在氣候風險資訊方面都必須更加透明。

法案要求所有全球年收入超過 10 億美元的私人公司,2026 年揭露營運產生碳量,到 2027 年必須揭露供應鏈中產生的碳量。2026 年,年收入超過 5 億美元的公司,也必須公布與氣候相關的財務數據。外媒評論指出,該規定在美國尚屬首例,可能有上萬家公司受到影響,這些法律也可能產生超出州界的影響。

研究作者呼籲必須針對 AI 的永續性提出質疑,科技公司需要提高透明度,並為整個 AI 開發制定更謹慎的方法,由於 AI 不能解決所有問題,人們也應該思考應用程式是否真的都需要 AI。

(首圖來源:Pixabay)