近期掀起的人工智慧 (AI) 旋風,14 日再加一筆!處理器大廠 AMD 在美國舊金山「資料中心與人工智慧技術發表會」釋出一系列消息,展現如何推展 AI 平台策略,提供客戶涵蓋雲端、邊緣、終端硬體產品,與業界深度軟體合作,發展可擴充與全方位 AI 解決方案。最受關注的就是 AMD Instinct MI 300 系列加速器產品線最新細節,瞄準競爭對手輝達 (NVIDIA) 而來。
AMD 董事長暨執行長蘇姿丰表示,AMD Instinct MI 300 系列加速器產品線的最新細節,Instinct MI 300X 加速器為全球最先進生成式 AI 加速器。MI 300X 採用新 AMD CDNA 3 加速器架構,支援高達 192GB HBM3 記憶體,提供大型語言模型推導與生成式 AI 工作負載運算力與記憶體效率。整個晶片總計封裝 1,530 億個電晶體,並 12 個 5 奈米製程小晶片。
憑藉 Instinct MI 300X 的大容量記憶體,客戶可處理 Falcon-40B 等大型語言模型,僅需使用一個 MI300X GPU 加速器,就能處理 400 億個參數的模型,蘇姿丰現場要求執行 Hugging Face AI 模型的 MI 300X 寫出一首有關舊金山的詩,展現單個 MI 300X 可運行高達 800 億個參數模型的強大性能。
相較競爭對手,MI 300X 的 HBM 暫存記憶體是 NVIDIA H100 的 2.4 倍,HBM 頻寬是 H100 的 1.6 倍,AMD 可執行比 NVIDIA H100 更大的模型。此外,AMD 推出 AMD Infinity 架構平台,將 8 個 MI 300X 加速器整合至業界標準設計,打造極致的生成式 AI 推論與訓練環境。MI 300X 第三季開始向各大客戶送樣。同時發表 AMD Instinct MI 300A,為針對 HPC 與 AI 工作負載開發的全球首款 APU 加速器,已開始送樣。
(首圖來源:科技新報攝)