NVIDIA 攜手英特爾新 Xeon 處理器,搶攻高能效 AI 加速運算

作者 | 發布日期 2023 年 01 月 11 日 17:00 | 分類 AI 人工智慧 , GPU , IC 設計 line share follow us in feedly line share
NVIDIA 攜手英特爾新 Xeon 處理器,搶攻高能效 AI 加速運算


NVIDIA 表示,隨著處理器大廠英特爾 (Intel) 於 11 日宣布推出第四代 Xeon 可擴充處理器之後,NVIDIA 及合作夥伴開始為高能效 AI 打造新一代加速運算系統。這些系統搭載 NVIDIA H100 Tensor Core GPU,提供較上一代產品更出色的運行效能、更佳擴充性及更高執行效率,每瓦有更亮眼運算表現及解決問題的能力。NVIDIA DGX H100 系統及由 NVIDIA 全球合作夥伴推出的 60 餘款搭載 H100 GPU 的伺服器產品,都將搭載英特爾新第四代 Xeon 可擴充處理器。

NVIDIA 指出,在人類推動各項改寫時代的顛覆性創新項目中,人工智慧 (AI) 是當中的核心以前所未有的速度開發新冠病毒 (COVID) 疫苗及診斷癌症,再到支援自動駕駛車和瞭解氣候變遷。因此,當當前幾乎各行各業都能受惠於採用 AI,但隨著神經網路日漸變得複雜,AI 技術也需要極為龐大密集的資源。為避免因運行這類運算基礎設施,而對發電造成需索無度的情況,必須盡量提高底層基礎技術的運行效率。所以,在 NVIDIA GPU 和 NVIDIA AI 平台的支援下,加速運算的效率提高,使資料中心能夠持續推動取得更新一代的突破性成果。

即將推出並搭載 NVIDIA 及英特爾產品的系統,將協助企業運行各項作業負載,其效率比僅搭載 CPU 的傳統資料中心伺服器平均高 25 倍。如此優異的每瓦效能代表完成工作所需的電力更少,這有助於確保讓資料中心盡量高效運用電力來完成最重要的工作。與前一代加速系統相比,新一代的 NVIDIA 加速伺服器將訓練速度和推論的能源使用效率提高 3.5 倍,這麼一來便能真正降低成本,AI 資料中心總持有成本降低 3 倍以上。

第四代 Xeon 可擴充處理器的特色之一便是支援 PCIe Gen 5 規格,可以將 CPU 到 NVIDIA GPU 及網路的資料傳輸速率提高一倍。新增的 PCIe 通道讓每台伺服器內可以部署更高密度的 GPU 和高速網路。更高速的記憶體頻寬也提高處理 AI 等資料密集型作業負載的表現,而每個連接高達每秒 400 GB (Gbps) 的網路速度,則是讓伺服器與儲存裝置之間能更快傳輸資料。

NVIDIA DGX H100 是全球首款專用 AI 基礎設施第四代產品,在加速資料中心作業系統 NVIDIA Base Command 軟體支援下,成為完全最佳化平台。每個 DGX H100 系統搭載八個 NVIDIA H100 GPU、十張 NVIDIA ConnectX-7 乙太網路介面卡及兩個第四代 Intel Xeon 可擴充處理器,可提供打造大型生成式 AI 模型、大型語言模型、推薦系統等所需的效能。

此架構加上 NVIDIA 網路技術,能夠大規模提升運算效率,在訓練 AI 及處理高效能運算(HPC) 作業負載方面,其效能較前一代產品高 9 倍,比未加速的 X86 雙插槽伺服器高出 20 至 40 倍。要是過去在單純 X86 架構伺服器叢集訓練一個語言模型要 40 天,搭載 Intel Xeon CPU 及 ConnectX-7 網路技術的 NVIDIA DGX H100 訓練同個語言模型,只要 1~2 天便可完成。NVIDIA DGX H100 系統是適用企業的一站式 NVIDIA DGX SuperPOD 的構成單元,其提供高達 1 exaflop 的 AI 運算效能,顯著提升大規模部署企業 AI 的效率。

處理 AI 資料中心的作業負載,NVIDIA H100 GPU 讓企業更高效打造及部署應用程式。華碩 (ASUS)、源訊科技 (Atos)、思科 (Cisco)、戴爾科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、慧與科技 (Hewlett Packard Enterprise)、聯想 (Lenovo)、雲達科技 (QCT) 及美超微 (Supermicro) 等 NVIDIA 合作夥伴,即將推出搭載 H100 GPU 和第四代 Intel Xeon 可擴充 CPU 的多款系統組合,將為全球企業帶來新一代的執行效能和能源使用效率。

(首圖來源:NVIDIA)