美超微發表新解決方案,加速 AI 訓練和推論效能

作者 | 發布日期 2024 年 02 月 02 日 18:39 | 分類 AI 人工智慧 , 伺服器 line share follow us in feedly line share
美超微發表新解決方案,加速 AI 訓練和推論效能


美超微(Supermicro)推出適用於 AI 和機器學習資料存取的新解決方案,透過將 GPU 資料傳輸管道完全利用,大幅縮短 AI 價值實現時間,幫助組織更快速訓練模型,迅速將處理後的資料運用到 AI 推論。

美超微指出,在 AI 訓練方面,這款解決方案可收集、轉換大量 PB 級原始資料,並載入到企業 AI 工作流程管道。經證實,可在生產製造環境中為人工智慧營運(AIOps)和機器學習營運(MLOps)提供 PB 規模級資料量。

Supermicro 總裁暨執行長梁見後表示,透過由每機櫃 20 PB 高效能快閃儲存容量所驅動,並搭載四個專為應用最佳化的 H100 8-GPU 氣冷伺服器或搭載八個 H100 8-GPU 的液冷伺服器,客戶能以機櫃規模加速AI和ML應用運行。

此外,該解決方案為每個儲存叢集提供 270 GB/s 的讀取吞吐量和 390 萬 IOPS做為最低部署,並輕鬆擴大至數百PB的規模。藉由使用具有 PCIe 5.0 與 E3.S 儲存裝置,以及 WEKA Data Platform 軟體的最新 Supermicro 系統,這項通過場域測試的機櫃級解決方案,大幅提升使用者的 AI  應用效能。

梁見後指出,透過全新的儲存解決方案,客戶將能完全發揮最先進 GPU 伺服器機櫃級解決方案的使用潛能,進而降低總擁有成本(TCO)並提高 AI 效能。

(首圖來源:科技新報)

延伸閱讀: