TrendForce 最新 HBM 市場研究顯示,為了更妥善健全的供應鏈管理,NVIDIA 也規劃加入更多 HBM 供應商,三星(Samsung)HBM3(24GB)預定 12 月完成驗證,HBM3e 進度依時間軸排列如下表,美光(Micron)7 月底提供 8hi(24GB)NVIDIA 樣品、SK 海力士(SK hynix)8 月中提供 8hi(24GB)樣品、三星 10 月初提供 8hi(24GB)樣品。
HBM驗證過程繁瑣,預計耗時兩季,TrendForce預期最快年底取得部分廠商HBM3e驗證結果,三大原廠均預定2024年第一季完成驗證。各原廠HBM3e驗證結果將決定最終NVIDIA 2024年HBM供應商採購權重分配,然驗證皆未完成,故2024年HBM整體採購量有待觀察。
NVIDIA持續擴展AI晶片產品,高階晶片市場擁最大優勢
展望2024年,各AI晶片供應商開案進度,NVIDIA今年高階AI晶片(採HBM)既有產品為A100 / A800及H100 / H800;2024年組合(Product Portfolio)更細緻化分類。除了原上述型號,更推出六顆HBM3e的H200及八顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的CPU與GPU,推出GH200及GB200。
同時期AMD與英特爾產品規劃,AMD 2024年出貨主流為MI300系列,採HBM3,下一代MI350採HBM3e,2024下半年開始HBM驗證,實際產品放量(Ramp Up)時間預估應為2025年第一季。
以英特爾Habana來看,2022下半年推出的Gaudi 2採六顆HBM2e,2024年中預期新型號Gaudi 3持續採HBM2e,但用量升級至八顆,TrendForce認為,NVIDIA HBM規格、產品準備度(Readiness)及時間軸,可望持續以領先GPU規格取得AI晶片競局領先。
HBM4或轉至客製化,擺脫Commodity DRAM產品框架
除了HBM3與HBM3e,TrendForce了解,HBM4規劃2026年推出,含NVIDIA及其他CSP(雲端業者)產品應用,規格和效能最佳化。受規格往高速發展帶動,將首次看到HBM最底層Logic die(又名Base die)採12奈米製程,由晶圓代工廠提供,使單顆HBM產品需結合晶圓代工廠與記憶體廠合作。
隨著客戶運算效能要求提升,HBM4堆疊層數除了現有12hi(12層),也再往16hi(16層)發展,更高層數也帶動新堆疊方式hybrid bonding需求。HBM4 12hi產品2026年推出;16hi產品2027年問世。
最後TrendForce觀察,HBM4各買方開始啟動客製化要求,除了HBM可能不再僅排列在SoC主晶片旁邊, 亦有部分討論轉向堆疊在SoC主晶片上。雖然所有選項仍在討論可行性,尚未定案,但TrendForce認為將來HBM產業轉至更客製化角度,比其他DRAM產品定價及設計,更能擺脫Commodity DRAM框架,呈特定化的生產。
(首圖來源:Image by Freepik)