人工智慧模型訓練太耗能!三星與 SK 海力士用新技術降低

作者 | 發布日期 2023 年 07 月 13 日 17:45 | 分類 AI 人工智慧 , GPU , 半導體 line share follow us in feedly line share
人工智慧模型訓練太耗能!三星與 SK 海力士用新技術降低


隨著生成式人工智慧應用發展,訓練模型也大幅增長,HBM 和 DDR5 等記憶體角色日趨重要,但也使記憶體能耗更突顯。南韓媒體 Chosun Biz 報導,三星和 SK 海力士與學術界展開合作投資下一代技術,以降低記憶體能耗,提升高效能運算效率。

據統計,DRAM 占輝達 A100 GPU 為主資料中心平台總耗能約 40%。層數增加後,HBM 記憶體能耗也會跟著增加。而南韓首爾大學推出 DRAM Translation Layer 技術,聲稱可將 DRAM 功耗降低 31.6%,吸引三星青睞。

故三星正與首爾大學合作,以降低記憶體功耗。目前是 Compute Express Link 技術,開發 12 奈米製程 16GB DDR5 DRAM,與上代相較能耗降低 23%。

除了三星,SK 海力士推出 LPDDR5X,將 High-K 金屬柵(HKMG)製程用於行動 DRAM。因 High-K 材料介電常數比傳統 SiON 絕緣膜高約 5 倍,可用相同面積和厚度儲存 5 倍電荷,幫助減少電流外洩。控制外洩電流的基礎上,SK 海力士 LPDDR5X 不但傳輸速度提高 33%,功耗也比上一代降低超過 20%。

市場人士回應,訓練模型對記憶體廠商提出進一步技術要求,廠商也展開競爭,將使記憶體成本逐漸下降,消費者也能從中獲益。

(首圖來源:三星)