各原廠 2024 年第一季 NVIDIA 完成 HBM3e 產品驗證,HBM4 預定 2026 年推出

作者 | 發布日期 2023 年 11 月 27 日 14:33 | 分類 半導體 , 晶片 , 記憶體 line share follow us in feedly line share
各原廠 2024 年第一季 NVIDIA 完成 HBM3e 產品驗證,HBM4 預定 2026 年推出


TrendForce 最新 HBM 市場研究顯示,為了更妥善健全的供應鏈管理,NVIDIA 也規劃加入更多 HBM 供應商,三星(Samsung)HBM3(24GB)預定 12 月完成驗證,HBM3e 進度依時間軸排列如下表,美光(Micron)7 月底提供 8hi(24GB)NVIDIA 樣品、SK 海力士(SK hynix)8 月中提供 8hi(24GB)樣品、三星 10 月初提供 8hi(24GB)樣品。

HBM驗證過程繁瑣,預計耗時兩季,TrendForce預期最快年底取得部分廠商HBM3e驗證結果,三大原廠均預定2024年第一季完成驗證。各原廠HBM3e驗證結果將決定最終NVIDIA 2024年HBM供應商採購權重分配,然驗證皆未完成,故2024年HBM整體採購量有待觀察。

NVIDIA持續擴展AI晶片產品,高階晶片市場擁最大優勢

展望2024年,各AI晶片供應商開案進度,NVIDIA今年高階AI晶片(採HBM)既有產品為A100 / A800及H100 / H800;2024年組合(Product Portfolio)更細緻化分類。除了原上述型號,更推出六顆HBM3e的H200及八顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的CPU與GPU,推出GH200及GB200。

同時期AMD與英特爾產品規劃,AMD 2024年出貨主流為MI300系列,採HBM3,下一代MI350採HBM3e,2024下半年開始HBM驗證,實際產品放量(Ramp Up)時間預估應為2025年第一季。

以英特爾Habana來看,2022下半年推出的Gaudi 2採六顆HBM2e,2024年中預期新型號Gaudi 3持續採HBM2e,但用量升級至八顆,TrendForce認為,NVIDIA HBM規格、產品準備度(Readiness)及時間軸,可望持續以領先GPU規格取得AI晶片競局領先。

HBM4或轉至客製化,擺脫Commodity DRAM產品框架

除了HBM3與HBM3e,TrendForce了解,HBM4規劃2026年推出,含NVIDIA及其他CSP(雲端業者)產品應用,規格和效能最佳化。受規格往高速發展帶動,將首次看到HBM最底層Logic die(又名Base die)採12奈米製程,由晶圓代工廠提供,使單顆HBM產品需結合晶圓代工廠與記憶體廠合作。

隨著客戶運算效能要求提升,HBM4堆疊層數除了現有12hi(12層),也再往16hi(16層)發展,更高層數也帶動新堆疊方式hybrid bonding需求。HBM4 12hi產品2026年推出;16hi產品2027年問世。

最後TrendForce觀察,HBM4各買方開始啟動客製化要求,除了HBM可能不再僅排列在SoC主晶片旁邊, 亦有部分討論轉向堆疊在SoC主晶片上。雖然所有選項仍在討論可行性,尚未定案,但TrendForce認為將來HBM產業轉至更客製化角度,比其他DRAM產品定價及設計,更能擺脫Commodity DRAM框架,呈特定化的生產。

(首圖來源:Image by Freepik