自駕車推動低功耗記憶體需求,調研:2027 年 HBM4 將用於自駕車

作者 | 發布日期 2025 年 03 月 07 日 16:15 | 分類 AI 人工智慧 , 半導體 , 記憶體 line share Linkedin share follow us in feedly line share
自駕車推動低功耗記憶體需求,調研:2027 年 HBM4 將用於自駕車

調研機構 Counterpoint 指出,隨著半導體技術持續創新,記憶體解決方案成為推動生成式 AI(GenAI)發展的核心動力,雖然 DRAM 解決方案具優勢,但成本與上市時程仍是關鍵挑戰。為降低創新風險,客戶需積極參與承諾採購,而製造商則須尋求降低成本的策略,如 LPDDR、PIM(Processing-In-Memory)、Wide I/O、GDDR 與 HBM,以適用不同應用場景。

短期 PIM 被視為最具創新的記憶體方案,主要支援神經處理單元(NPU),但僅限少量應用;Mobile HBM 雖可提升效能,但應用尚未明朗。Counterpoint 表示,預計 2026 年蘋果將在 iPhone Pro Max 與摺疊機型中,由 PoP(Package-on-Package)架構轉向獨立式DRAM配置,提升頻寬,同時 NAND 表現將透過 UFS 5.0 技術改進。

此外,隨著自駕技術發展,高效能應用處理器(AP)與 LPDDR 使用將進一步增加,Counterpoint  預計 HBM4 將在 2027 年後導入自動駕駛系統;XR 裝置、無人機與遊戲領域也將擴展 Wide I/O 的應用,以提升低延遲處理能力。

NVIDIA 的 DIGITS 技術將透過 GPU 與 HBM 的整合,提升記憶體頻寬,2025 年中透過 SOCAMM 技術增強 CPU 頻寬,擴展容量並提升訊號完整性。然而,PCB 與連接器成本仍是一大挑戰,短期內尚無計畫將該技術應用於一般 PC 市場。

目前三星強調生成式 AI 記憶體解決方案需在高頻寬、速度、容量、低延遲與功耗管理之間取得平衡。預計至2030 年,HBM5 的堆疊層數將達 20 層,並與更多邏輯裝置整合於單一小晶片(Chiplet)架構中,台積電在 CoWoS 技術中的角色將更加重要。供應鏈橫向合作的重要性日益提升,將取代單一企業全面整合的垂直整合模式。

同時,DeepSeek 正開發行動 AI 的 LLM(大型語言模型),預期 OpenAI 等企業將逐步標準化AI技術。未來隨著 PIM 與 Low Latency Wide I/O(LLW)等創新技術的普及與成本持續下降,這些技術有望在軟體標準化後的數年內加速落地。

Counterpoint Research 研究總監 MS Hwang表示,無論智慧手機、自動駕駛,還是高效能運算領域,記憶體解決方案都扮演舉足輕重的角色。隨著供應鏈合作模式的變革,技術標準化與成本優化將推動記憶體產業邁向更高效能、低功耗的未來。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》