華碩旗下伺服器支援最新 NVIDIA Tesla GPU

作者 | 發布日期 2018 年 05 月 30 日 14:35 | 分類 AI 人工智慧 , GPU , 伺服器 follow us in feedly

華碩 30 日宣布旗下 GPGPU 伺服器、通用伺服器均可支援最新 NVIDIA AI 人工智慧解決方案(Tesla V100 32GB 與 Tesla P4);近年來,AI 人工智慧演進已持續將資料轉換為有意義的見解、服務及科學突破,推動 AI 革命的神經網路規模亦大幅成長,例如:目前用於語言翻譯的 Google MOE 神經網路模型擁有 80 億個參數,但在兩年前卻只有 1 億個。



此次 NVIDIA 新推出的 Tesla V100 具備 32GB 記憶體配置,可提升新一代 AI 模型深度學習訓練效能達 50%,不僅能讓 AI 開發人員將在更短時間內達成突破性成果,亦相當適合高效能運算(HPC)與大規模 HPC 部署;另一方面,Tesla P4 為全球最快的深度學習推理 GPU,可減少 10 倍推理延遲,以及提供比 CPU 高出 40 倍的優異能源效率,使用者如安裝於橫向擴展伺服器上,將能實現兼具智慧與互動性的新一代 AI 服務應用。

憑藉上述強大的訓練與推理 GPU 功能,華碩 GPGPU 伺服器及通用伺服器亦整裝待發,全方位支援 Tesla V100 32GB、Tesla P4;其中,ESC8000 G4 可支援 8 張 Tesla V100 32GB,搭配可輕鬆切換的專利拓樸技術,將能執行更大批次的模擬作業;還有可支援 4 張 Tesla V100 32GB 或 8 張 Tesla P4 的 ESC4000 G4(見首圖),使用者無時無刻都能坐享超乎想像的剽悍運算;至於 RS720-E9 則可支援 Tesla P4,其內蘊絕佳的推理能力,能滿足各種 AI 負載需求,並為用戶帶來最無與倫比的極緻體驗,絕對是科學運算及高階研究領域中不可多得的完美夥伴!

關鍵字: , , , ,