
美超微(Supermicro)推出適用於 AI 和機器學習資料存取的新解決方案,透過將 GPU 資料傳輸管道完全利用,大幅縮短 AI 價值實現時間,幫助組織更快速訓練模型,迅速將處理後的資料運用到 AI 推論。
美超微指出,在 AI 訓練方面,這款解決方案可收集、轉換大量 PB 級原始資料,並載入到企業 AI 工作流程管道。經證實,可在生產製造環境中為人工智慧營運(AIOps)和機器學習營運(MLOps)提供 PB 規模級資料量。
Supermicro 總裁暨執行長梁見後表示,透過由每機櫃 20 PB 高效能快閃儲存容量所驅動,並搭載四個專為應用最佳化的 H100 8-GPU 氣冷伺服器或搭載八個 H100 8-GPU 的液冷伺服器,客戶能以機櫃規模加速AI和ML應用運行。
此外,該解決方案為每個儲存叢集提供 270 GB/s 的讀取吞吐量和 390 萬 IOPS做為最低部署,並輕鬆擴大至數百PB的規模。藉由使用具有 PCIe 5.0 與 E3.S 儲存裝置,以及 WEKA Data Platform 軟體的最新 Supermicro 系統,這項通過場域測試的機櫃級解決方案,大幅提升使用者的 AI 應用效能。
梁見後指出,透過全新的儲存解決方案,客戶將能完全發揮最先進 GPU 伺服器機櫃級解決方案的使用潛能,進而降低總擁有成本(TCO)並提高 AI 效能。
(首圖來源:科技新報)