記憶體大廠美光 9 日發表 12 層堆疊的 HBM3E 高頻寬記憶體,產品容量為 36 GB,針對人工智慧和 HPC,可搭配輝達 H200 和 B100 / B200 資料中心 GPU。
美光指出,新發表的 12 層堆疊 HBM3E 擁有 36GB 容量,比之前的 8 層堆疊的 24GB 容量增加 50%。容量增加可使資料中心執行更大 AI 模型,例如 Llama 2 高達 700 億個參數。美光 12 層堆疊 HBM3E 消除 CPU 從記憶體頻繁讀取,並減少 GPU 溝通延遲,加速資料處理。
效能方面,美光 12層堆疊 HBM3E 超過 1.2TB/s 記憶體頻寬,資料傳輸速率超過 9.2Gb/s。雖然 12 層堆疊 HBM3E 容量比競爭對手產品高 50%,但功耗卻低於前代八層堆疊 HBM3E。
美光 12 層堆疊 HBM3E 還包括完全可編程記憶體的內建自測 (MBIST) 系統,以確保客戶更快上市時間和可靠性。全速模擬系統級流量,對新系統徹底測試和更快驗證。
美光還強調,HBM3E 記憶體與台積電先進封裝 (CoWoS) 相容,可搭配封裝輝達的 H100 和 H200 等資料中心 GPU。 台積電生態系統與聯盟管理部負責人 Dan Kochpatcharin 表示,台積電和美光有著長期的戰略合作夥伴關係。 生態系統的一部分,雙方將密切合作,使美光以 HBM3E 系統和先進封裝 (CoWoS) 支援客戶 AI 創新。
美光已送樣給主要合作夥伴,以利用 AI 生態系統驗證測試。
(首圖來源:美光)