目前主流大型語言模型(LLM)深度學習 Transformer 架構,運算效能高度依賴記憶體存取。不只海量資料的訓練,權重參數與推論過程中的 KV 快取,都需在 token 生成階段反覆讀取。當處理器運算成長速度,明顯快於記憶體頻寬與資料傳輸能力時,使得大量時間並非花在運算本身,而是耗費在等待資料從記憶體載入。當系統效能受限於資料傳輸速度時,就形成典型的「記憶體牆」(Memory Wall)問題。
記憶體牆困局 AI 算力競逐引爆全球記憶體超級循環 |
| 作者 TrendForce 集邦科技|發布日期 2026 年 02 月 03 日 10:00 | 分類 半導體 , 記憶體 |



