韓媒:不只 HBM!未來 HBF 崛起,NAND 堆疊成 AI 新儲存動能

作者 | 發布日期 2025 年 09 月 11 日 14:00 | 分類 AI 人工智慧 , 半導體 , 記憶體 line share Linkedin share follow us in feedly line share
Loading...
韓媒:不只 HBM!未來 HBF 崛起,NAND 堆疊成 AI 新儲存動能

根據韓媒報導,韓國科學技術院(KAIST)電機工程系教授 Kim Joung-ho(在韓國媒體中被譽為「HBM 之父」)表示,高頻寬快閃記憶體(High Bandwidth Flash,HBF)有望成為下一代 AI 時代的重要記憶體技術,將與高頻寬記憶體(HBM)並行發展,共同推動晶片大廠的業績成長。

HBF 的設計概念與 HBM 相似,皆透過矽穿孔(TSV)將多層晶片堆疊連接。差別在於 HBM 以 DRAM 為核心,而 HBF 則採用 NAND 快閃記憶體進行堆疊,具備「容量更大、成本更具優勢」的特點。Kim Joung-ho 指出,雖然 NAND 的速度不及 DRAM,但容量往往高出 10 倍以上,若以數百層乃至數千層堆疊方式建構,將能有效滿足 AI 模型對龐大儲存的需求,可望成為 NAND 版本的 HBM。

目前生成式 AI 模型正急速擴張,單一模型的輸入 token 已達百萬級別,處理過程需要 TB 級資料。在每秒數千次的讀寫過程中,若記憶體頻寬不足,就會出現瓶頸,導致 ChatGPT、Google Gemini 等大型語言模型(LLM)的反應速度明顯下降。

Kim Joung-ho 強調,這種限制來自現行的馮諾依曼架構,由於 GPU 與記憶體是分離設計,資料傳輸頻寬決定了效能上限,「即便將 GPU 規模擴大一倍,如果頻寬不足也毫無意義」。

他預測,未來 GPU 將同時搭載 HBM 與 HBF,形成互補架構:HBM 做為高速快取,負責即時運算資料,而 HBF 則承擔大容量儲存,直接存放完整的 AI 模型。這將有助於突破記憶體瓶頸,使 GPU 能處理更龐大的生成式 AI,甚至涵蓋長篇影片等複雜內容。Kim Joung-ho 表示:「未來 AI 將不僅限於文字與圖像,而能生成如電影般的長片,屆時所需的記憶體容量將是現有的 1,000 倍以上。」

(首圖為示意圖,來源:Image by Freepik

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》