加速生成式 AI 部署!Supermicro 推三款基於 Nvidia 技術解決方案

作者 | 發布日期 2024 年 03 月 22 日 11:39 | 分類 AI 人工智慧 , 伺服器 , 電腦 line share Linkedin share follow us in feedly line share
加速生成式 AI 部署!Supermicro 推三款基於 Nvidia 技術解決方案


美超微(Supermicro)宣布推出最新產品組合,加速生成式 AI 部署。美超微指出,其 SuperCluster 解決方案為現今及未來大型語言模型(LLM)硬體基礎設施提供核心建構組件。

Supermicro 三款 SuperCluster 解決方案現已上市。首先是配置 4U 液冷系統的 5 組機櫃,或者 8U 氣冷系統的 9 組機櫃型SuperCluster,都是專為強大 LLM 訓練性能及高度批次大小且大量的 LLM 推論所設計;此外,配備 1U 氣冷 Supermicro NVIDIA MGXTM 系統的第三款 SuperCluster 超級叢集,則針對雲端級推論進行了最佳化。

Supermicro 執行長梁見後表示,在 AI 時代,運算力單位是以叢集衡量,不再只用伺服器數量做為依據。公司全球製造產能已擴大到每月 5,000 台機櫃,能比以往更快地為客戶提供完整生成式 AI 運算叢集。

NVIDIA GPU 產品部門副總裁 Kaustubh Sanghani 則表示,NVIDIA 最新型 GPU、CPU、網路與軟體技術助力能讓系統製造者為全球市場內不同類型的下一代 AI 工作運行實現加速。透過結合基於 Blackwell 架構產品的 NVIDIA 加速運算平台,Supermicro 能提供客戶所需要的前沿伺服器系統,且這些系統可容易地被部署至資料中心。

Supermicro 指出,Supermicro 4U NVIDIA HGX H100/H200 8-GPU 系統透過液冷技術使 8U 氣冷系統運算密度加倍,同時降低能耗量與總體擁有成本(TCO)。這些系統旨在為了支援下一代 NVIDIA 的 Blackwell 架構 GPU。此散熱技術可使一整座資料中心電力成本降低最多 40%,同時節省資料中心占地空間。同時,也非常適合用於訓練生成式 Al。

另採用 NVIDIA GH200 Grace Hopper Superchip 的 Supermicro NVIDIA MGX™ 系統設計,能打造未來 AI 運算叢集的架構樣式,解決生成式 AI 的關鍵瓶頸:運行高推論批次大小的 LLM 所需的 GPU 記憶體頻寬及容量,進而降低營運成本。具 256 節點的運算叢集能實現雲端級大量推論算力引擎,並易於部署與擴充。

(首圖來源:科技新報)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》