
根據韓媒報導,韓國科學技術院(KAIST)電機工程系教授 Kim Joung-ho(在韓國媒體中被譽為「HBM 之父」)表示,高頻寬快閃記憶體(High Bandwidth Flash,HBF)有望成為下一代 AI 時代的重要記憶體技術,將與高頻寬記憶體(HBM)並行發展,共同推動晶片大廠的業績成長。
HBF 的設計概念與 HBM 相似,皆透過矽穿孔(TSV)將多層晶片堆疊連接。差別在於 HBM 以 DRAM 為核心,而 HBF 則採用 NAND 快閃記憶體進行堆疊,具備「容量更大、成本更具優勢」的特點。Kim Joung-ho 指出,雖然 NAND 的速度不及 DRAM,但容量往往高出 10 倍以上,若以數百層乃至數千層堆疊方式建構,將能有效滿足 AI 模型對龐大儲存的需求,可望成為 NAND 版本的 HBM。
目前生成式 AI 模型正急速擴張,單一模型的輸入 token 已達百萬級別,處理過程需要 TB 級資料。在每秒數千次的讀寫過程中,若記憶體頻寬不足,就會出現瓶頸,導致 ChatGPT、Google Gemini 等大型語言模型(LLM)的反應速度明顯下降。
Kim Joung-ho 強調,這種限制來自現行的馮諾依曼架構,由於 GPU 與記憶體是分離設計,資料傳輸頻寬決定了效能上限,「即便將 GPU 規模擴大一倍,如果頻寬不足也毫無意義」。
他預測,未來 GPU 將同時搭載 HBM 與 HBF,形成互補架構:HBM 做為高速快取,負責即時運算資料,而 HBF 則承擔大容量儲存,直接存放完整的 AI 模型。這將有助於突破記憶體瓶頸,使 GPU 能處理更龐大的生成式 AI,甚至涵蓋長篇影片等複雜內容。Kim Joung-ho 表示:「未來 AI 將不僅限於文字與圖像,而能生成如電影般的長片,屆時所需的記憶體容量將是現有的 1,000 倍以上。」
(首圖為示意圖,來源:Image by Freepik)