AI 伺服器話題持續,海英俊:已在伺服器占半數市場

作者 | 發布日期 2023 年 06 月 13 日 11:32 | 分類 AI 人工智慧 , 伺服器 , 電腦 line share follow us in feedly line share
AI 伺服器話題持續,海英俊:已在伺服器占半數市場


為因應人工智慧(AI)運算需求,各大品牌廠積極導入建置 AI 伺服器,電源供應器大廠台達電在資料中心與散熱領域耕耘多年,在 AI 伺服器領域也有其優勢,台達董事長海英俊表示,與品牌廠、加工廠關係密切,今年伺服器領域有望維持 20~30% 的成長。

ChatGPT 持續發酵,AI 應用已經成為近期市場的重要話題,人工智慧應用亦相當廣泛,其中機器學習、深度學習都包含在內,未來隨著更多公司,AI 變得更聰明,學習速度也更快。

但若要完成上述運算,晶片運算能力就顯得非常重要,在生成式 AI、大型語言模型驅動帶動算力需求下,AI 伺服器及 AI 晶片需求看漲,TrendForce 上月也發布最新預估數字,預估 2023 年 AI 伺服器出貨量近 120 萬台,年增 38.4%,占整體伺服器出貨量近 9%,到 2026 年將占 15%,同步上修 2022~2026 年 AI 伺服器出貨量年複合成長率至 29%。

AI 伺服器包含搭載 GPU、FPGA、ASIC 等,還有週邊的伺服器機殼、伺服器電源、散熱等,台達執行長鄭平指出,AI 是一個籠統的概念,就像 IoT(物聯網)架構都是 AI,AI 伺服器並非個別單一產品,需要不同系統搭配整合應用。

鄭平表示,台達在電源以及散熱領運耕耘多年,台達電在 AI 伺服器的優勢在於,能源轉換效率跟系統能效跟散熱搭配,包括熱模擬、風流跟水流散熱方式。

鄭平指出,除了傳統的風冷外,台達還有提供水冷及浸沒式散熱,都有產品線配合,無論是晶片端散熱產品、AI 準系統或伺服器、資料中心相關電源管理、氣冷與水冷散熱解決方案都已開始出貨。

台達推出的「兩相浸沒式液冷」資料中心解決方案,可將電子設備直接浸泡在不導電、沸點低易蒸發的冷卻液中,透過冷卻液的相變帶走熱量,提高散熱效率,比起傳統的氣冷式散熱大幅減少 84% 能耗,目前已推出但還在實驗階段。

生成式 AI 所需的伺服器、運算都比傳統伺服器多 3~10 倍,用電需求與熱耗也比傳統伺服器高出許多,海英俊指出,對於 AI 伺服器來說,散熱就是一大問題,光靠風扇已經不夠了。

海英俊指出,台達在資料中心、散熱解決方案發展許久,與品牌廠、加工廠等大廠都有聯繫,目前在伺服器市場已經占據大概一半的市場了。

鄭平也指出,AI 伺服器與非 AI 伺服器都是在資料中心內運算,較難區分,但資料中心市場將會持續成長,也會有各式各樣的應用。目前伺服器冷卻大多搭配氣冷與水冷即可,配備完之後都會用散熱軟體去模擬找出最終最佳方案,且各大資料中心廠及半導體晶片廠都是台達客戶,近幾年也建置非常多的資料中心,後續也會持續建置。

儘管伺服器產業今年上半年因高庫存傳出需求弱訊號,但鄭平先前也表示,「現在伺服器市場看起來還好,沒有想像差」,海英俊也指出,今年伺服器的成長仍可維持去年,在 20~30% 的成長。

AI 將帶動高階伺服器對大瓦數電源供應器以及高效散熱配件,同時在 ESG 要求下,未來資料中心也會需要更多節能、高效需求,台達電均可提供完整解決方案,未來持續受惠可期。

(首圖來源:科技新報)

延伸閱讀: