隨著 ChatGPT 爆紅,微軟、Google,中國百度等相繼宣布重大改革搜尋引擎,試圖將大型人工智慧模型整合至搜尋引擎,給用戶更豐富準確的體驗。但新計畫問世後的興奮,可能藏著令人難堪的祕密。
外媒指出,構建高性能人工智慧搜尋引擎的競賽,需要運算能力大幅提升,後果就是科技公司能源用量和碳排放大幅增加。英國薩里大學 (University of Surrey) 1團隊分析,有大量資源用於索引和搜尋網路,接下來人工智慧整合需要不同能力,也就是整合運算效能、儲存和高效能搜尋。每當線上運算處理步驟變化,就會看到大型處理中心電力和冷卻資源顯著增加。預估搜尋引擎整合人工智慧後也會走上這條路。
團隊強調訓練大型語言模型 (LLMs) 必須解析和運算連結大量資料,就是為什麼往往由擁有大量資源的企業開發。微軟必提供動力給 ChatGPT,還有 Google 支援聊天機器人 Bard 等。西班牙科魯尼亞大學 (University of Coruña) 團隊也指出,訓練模型需要大量運算能力,只有大型科技公司才能負擔。
儘管 OpenAI 和 Google 都沒有透露產品運算成本,但第三方分析估計,ChatGPT 部分依賴 GPT-3 模型,訓練需消耗 1,287 兆瓦時電力,產生 550 多噸二氧化碳當量,相當於一個人往返紐約和舊金山 550 次。這數字看起來沒有很糟,但考慮到人工智慧不僅要訓練,將來還要執行數百萬用戶要求的工作。
如果把 ChatGPT 當成獨立產品,與整合到應用有很大不同。瑞銀估計,ChatGPT 日均獨立用戶為 1,300 萬,此基礎下必要應用每天處理 5 億次搜尋。加拿大資料中心公司 QScale 聯合創辦人 Martin Bouchard 表示,根據他對微軟和 Google 搜尋的了解,搜尋引擎加入人工智慧,需每次搜尋至少增加 4~5 倍計算量。
國際能源署資料顯示,資料中心溫室氣體排放量已達全球排放量 1% 左右,即便搜尋引擎企業承諾減少排放,但隨著雲端運算需求成長,這數字只會上升。微軟承諾到 2050 年實現零碳排,2023 年購買 150 萬噸碳權。Google 則承諾到 2030 年整個業務和價值鏈實現零碳排。
對科技大廠來說,減少人工智慧整合到搜尋引擎產生的碳足跡和能源成本,方法之一就是將資料中心轉用更清潔的能源,並重新設計神經網路,更高效以減少推斷時間,也就是強化演算法運算能力。Google 發言人 Jane Park 表示,Google 聊天機器人 Bard 最初版為輕量級大型語言模型,還發表研究介紹最先進語言模型的能源成本,包括早期和更大型的 LaMDA,結果說明高效模型、處理器和資料中心與清潔能源結合,可將機器學習系統碳足跡減少千倍。
(首圖來源:shutterstock)