Tag Archives: KV 快取

KV 快取需求爆發!HBM、DRAM 容量有限,eSSD 成承接 AI 記憶體外溢關鍵

作者 |發布日期 2026 年 04 月 07 日 14:14 | 分類 AI 人工智慧 , 晶片 , 記憶體

AI 推理需求爆發、長上下文(Long Context)模型快速普及之下,記憶體產業正迎來結構性轉變。業界觀察,過去市場直覺認為 HBM DRAM 將是最大受惠者,但實際上,隨著 KV 快取需求急速膨脹,真正承接需求的關鍵反而是 NAND / SSD,特別是企業級 SSDeSSD)。 繼續閱讀..

KV 快取記憶體省 6 倍!Google 新壓縮技術 TurboQuant 是什麼?為何說顛覆 AI 技術曲線?

作者 |發布日期 2026 年 03 月 26 日 10:48 | 分類 AI 人工智慧 , Google , 記憶體

先前輝達(NVIDIA)在論文中公開壓縮 KV 快取的新技術 KVTC,如今 Google 也在 Google 部落格中分享最新的「TurboQuant」技術,表示會以極致壓縮重新定義 AI 效率,而這項技術在業界掀起討論,大摩甚至以「另一個 DeepSeek 時刻」來表示這可能顛覆 AI 技術曲線。而這項技術到底是怎麼運作的?《科技新報》帶你一次了解這項新技術。 繼續閱讀..

LLM 記憶體用量縮減 20 倍!NVIDIA 超狂新技術 KVTC,靠「KV 快取」翻轉記憶體瓶頸

作者 |發布日期 2026 年 03 月 21 日 8:40 | 分類 AI 人工智慧 , Nvidia , 記憶體

輝達(NVIDIA)研究人員提出一種新技術,可大幅降低大型語言模型在追蹤對話歷史時所需的記憶體,最高可達 20 倍,且不需修改模型本身。外界期待,隨著記憶體用量大幅下降,是否意味著有望降低對記憶體的依賴。 繼續閱讀..