微軟力挺 AMD,成 Instinct MI300X AI 晶片最大客戶

作者 | 發布日期 2024 年 02 月 06 日 7:00 | 分類 AI 人工智慧 , 半導體 , 晶片 line share follow us in feedly line share
微軟力挺 AMD,成 Instinct MI300X AI 晶片最大客戶


AMD 去年 12 月 6 日舉辦主題 Advancing AI 的活動,推出新資料中心 Instinct MI300 系列 AI 晶片。Instinct MI300X 為純 GPU 設計,採 CDNA 3 架構,可為 HPC 和 AI 提供突破性性能。

外媒 Seeking Alpha 報導,外資花旗集團報告指,微軟資料中心部門是 AMD Instinct MI300X 晶片最大買家,開始為 GPT-4 這類大型語言模型(LLM)工作。AMD 執行長蘇姿丰表示,AMD 2024 年 AI 晶片銷售金額預估達 35 億美元,高於 20 億美元預測。

AMD 沒有公開 Instinct MI300X 定價,但知情人士透露,每片內建 Instinct MI300X 晶片的運算卡售價約 1.5 萬美元,相較競爭對手輝達 (NVIDIA) 同等級產品較經濟實惠。輝達 H100 PCIe 80GB HBM2E 版售價約 3 萬至 4 萬美元,甚至更高。性能更強 H100 SXM5 80GB HBM3 版定價更高。

AMD Instinct MI300X 採小晶片架構,混用 5 和 6 奈米製程,電晶體數量達 1,530 億個,第四代 Infinity Fabric 解決方案,共 28 個模組晶片,包括 8 個 HBM 和 4 個計算晶片,每個計算晶片有 2 個基於 CDNA 3 架構的預算單元,共計 80 個計算單元。

這也代表整個晶片有 320 個運算單元和 20,480 個串流處理器。出於良率考慮,AMD 削減部分運算單元,實際使用數量為 304 個和 19,456 個串流處理器。HBM3 容量達 192GB,提供 5.3TB/s 記憶體頻寬和 896GB/s 的 Infinity Fabric 頻寬。

AMD 性能測試,Instinct MI300X 表現優於市面 Nvidia H100 80GB,甚至可能對即將上市的 H200 141GB 構成威脅。除傳出微軟 Instinct MI300X 最大買家外,Meta 也採購大量 AMD Instinct MI300 系列產品,LaminiAI 則是首家公開使用 MI300X 的公司。

(首圖來源:AMD)