鴻海科技日透露輝達最新 AI 伺服器開始量產!液冷將成主流,三大勢力爭食黃金領域

作者 | 發布日期 2024 年 10 月 27 日 9:00 | 分類 AI 人工智慧 , 伺服器 , 半導體 line share Linkedin share follow us in feedly line share
鴻海科技日透露輝達最新 AI 伺服器開始量產!液冷將成主流,三大勢力爭食黃金領域


搭載輝達 GB200 晶片的 AI 伺服器邁入量產,能達到散熱標準的液冷系統商機備受關注;組裝代工廠、電源供應商、散熱零組件廠正展開前所未見的競合態勢。

《財訊》報導,隨著輝達AI伺服器GB200 NVL72即將量產出貨,液冷散熱的解決方案再度受到市場關注;近來在鴻海科技日及今年OCP全球高峰會,從ODM(原廠委託設計代工)商、電源供應器廠再到散熱模組業者,均積極搶進液冷供應鏈,三方勢力將發展出全新的競合關係。

鴻海科技日9日落幕,現場展示量產版GB200 NVL72產品,為目前最高階AI伺服器;董事長劉揚偉(見首圖)喊話,鴻海是第一家量產出貨的組裝代工廠,一口氣亮相整組的機櫃、CDU(冷卻液分配系統)、QD(快接頭)、連接器、大電壓線纜等產品,成為科技日活動中人氣最旺的焦點。

能耗受重視,加速轉液冷

進入AI伺服器時代,一顆晶片TDP(熱設計功耗)較通用型伺服器增加二至五倍,達1,000瓦等級;如今,輝達最新GB200系列,熱功耗倍增至2,700瓦之多。若以整個機櫃來看,過去一個機櫃熱功耗達20~50千瓦,可採氣冷解熱;但G200 NVL72機櫃的熱功耗高達130~140千瓦,必須採用液冷的方式才能有效解熱。

以每天家用熱水器舉例,一台熱功耗僅700瓦,整機櫃AI伺服器布滿的水線總長高達數公里,以水溫大概20°C~25°C度進入系統,GB200晶片的熱功耗高達2,700瓦,帶出水溫達60°C~70°C,就能想像有多熱了。

如果熱能無法有效排除,就會出現當機、故障等情況,這也就說明,為什麼散熱設計變得愈來愈重要。研究機構集邦科技預估,GB200機櫃方案放量出貨,將帶動液冷散熱滲透率,從今年11%提升至2025年24%,並以水對氣為主流。

集邦科技也預估,輝達Blackwell平台今年占高階GPU伺服器晶片的出貨比重約4%,Hopper平台占比95%。進入2025年之後,Blackwell將取代Hopper成為出貨主流,占比大幅提升至84%。由此可知,氣冷轉向液冷趨勢明年會更顯著。

集邦科技分析師邱珮雯指出,不只是AI伺服器的耗能提升、帶動液冷散熱的需求,各國政府對於能耗的議題也更加重視。例如歐盟、中國等即要求未來新建的資料中心,其PUE(Power Usage Effectiveness,電力使用效率)必須達1.3以下標準;以目前既有氣冷散熱為主的資料中心來看,PUE都在1.5~1.7,並不符合規範。

另GB200 NVL72機櫃液冷散熱設備與關鍵零組件的產值,是傳統氣冷機櫃28倍之多,因此吸引各方業者積極布局,希望發展初期盡早卡位成功,未來成為輝達及各大CSP(雲端服務供應商)長期合作的供應商。

ODM搶進,鴻海最積極

就商機而言,液冷散熱產業鏈有六大關鍵設備與零組件,最貴就是CDU,角色有點像中央電腦,最多負責八個大型機櫃的液冷分配系統,一台要價6萬至8萬美元。再者,水冷板、分歧管、內部分歧管、風扇、快接頭也都是關鍵零組件。

鴻海集團旗下鴻騰精密已成功開發出快接頭,5月底接到任務後,8月底前即完成所有高低溫、熱脹冷縮、壓力等各種環境測試。鴻騰本身有金屬沖壓能力,精密加工技術不輸競爭同業,因此不鏽鋼材質快接頭,只要避開歐美廠商專利,以及符合OCP規範的規格,不難開發出來,難的是取得輝達推薦供應商資格及CSP業者認證。

AI伺服器ODM廠商以鴻海垂直整合最積極;不只分歧管、快接頭、全流量閥式快接頭、大電壓線纜、光纖電纜等都自己做,就連CDU也是自製。工業富聯技術長周泰裕透露,很早鴻海就在高雄、美國等地設立AI效能實驗室,一點一滴累積垂直整合的能力。

▲ AI伺服器及液冷相關設備零組件,鴻海集團自製率高達八至九成。

這次緯穎在OCP全球高峰會也推出液冷技術,投資供應商ZutaCore布局,希望達到技術整合目標;至於母公司緯創持續專注AI伺服器模組、主機板再到整組機櫃的ODM業務。

廣達過去AI伺服器業務,以L10~L12業務為主力,也就是從主機板、模組、整組機櫃再到軟硬體系統整合等一條龍的服務。市場關注,廣達資深副總經理楊麒令持續接任光寶科獨立董事之後,雙方未來會如何在液冷市場攜手合作。

三族群競合,推進整合力

「液冷散熱市場,已可看到ODM廠商、電源供應器廠及散熱模組業者三方角力與競合的態勢。」集邦科技資深分析師龔明德觀察。

以電源供應器大廠台達電為例,不只是追求規格的升級潮,更往CDU、水冷板等關鍵設備與零組件推進。另外,既有的散熱模組廠商也積極從氣冷往液冷發展,追求掌握更多的關鍵零組件整合能力。

從美系CSP業者的策略來看,Google最早採用液冷散熱方案,已占自家AI伺服器的比重約三成;至於其他CSP業者,採用液冷散熱比率還僅個位數。中國供應鏈阿里巴巴是導入液冷散熱最積極的廠商,未來新建資料中心也全部以液冷優先。這也顯示,未來液冷市場仍有很大的成長空間。

現階段,每家業者各憑本事,積極搶攻液冷市場的大餅,首要目的除了先取得輝達認證之外,最終還是要贏得CSP業者的青睞,這不只是考驗技術能力,過去與CSP業者合作的歷史軌跡,也成為是否能勝出的關鍵。

開放運算計畫(Open Compute Project)會議,每年在歐洲(春季)、美國(秋季)各舉辦一次;為全球性倡議活動,期以開放式的運算架構,制定資料中心產業的硬體規格。

(本文由《財訊》授權轉載)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》