AI 伺服器燒燙燙!換「液冷」上陣後,還有哪些技術難關? 作者 林 妤柔|發布日期 2025 年 06 月 09 日 8:01 | 分類 AI 人工智慧 , GPU , 伺服器 | edit 隨著生成式 AI 與大語言模型熱潮來襲,資料中心對高效能運算(HPC)的需求激增,推升 AI 伺服器朝向高密度、高功耗的架構發展,對散熱的需求也遠超過現有氣冷的極限。然而,下一個階段的液冷散熱,將面臨哪些技術瓶頸? 繼續閱讀..
NVIDIA 發表 H200 NVL、GB200 NVL4 平台,企業伺服器運作再加速 作者 林 妤柔|發布日期 2024 年 11 月 21 日 17:44 | 分類 AI 人工智慧 , GPU , 伺服器 | edit NVIDIA 又發表兩款產品,分別是 GB200 NVL4 及 H200 NVL PCIe GPU,前者為配備兩個 Grace CPU 的巨型四核心 B200 GPU 模組,以及 H200 NVL PCIe GPU,主要針對氣冷式資料中心。 繼續閱讀..
NVIDIA Blackwell 平台和 ASIC 晶片升級助力,2025 年液冷散熱滲透率逾 20% 作者 TechNews|發布日期 2024 年 09 月 23 日 14:16 | 分類 AI 人工智慧 , 伺服器 , 材料、設備 | edit TrendForce 最新調查,NVIDIA Blackwell 新平台預定第四季出貨,助益液冷散熱方案滲透率明顯成長,從今年 10% 左右至 2025 年突破 20%。全球 ESG 意識提升,加上 CSP 加速布建 AI 伺服器,有助帶動散熱方案從氣冷轉向液冷。 繼續閱讀..