隨著生成式 AI 算力需求每 3.4 個月翻倍,傳統處理器與記憶體間的資料傳輸瓶頸,即「記憶體牆」(Memory Wall)已成為效能提升的最大阻礙。為了解決資料搬運造成的延遲與高功耗,三星、SK 海力士及華邦電等大廠紛紛將運算單元直接整合進記憶體中,推出如 AiM 或 CUBE 等「記憶體內運算」(PIM)技術。這項變革讓記憶體從單純的儲存角色,轉變為具備初步運算能力的處理單元,正式宣告 AI 晶片競爭進入「存算一體」的新戰場。
運算架構的典範轉移背後,核心動機在於優化總體擁有成本(TCO)與能源效率。當 AI 應用從雲端訓練轉向邊緣推論,頻繁的資料讀取使功耗成本激增,傳統馮紐曼架構的資料搬運損耗已難以負荷。透過 PIM 技術,業者能將特定運算任務卸載至記憶體端,不僅能提升數十倍頻寬,更可降低約 40% 至 50% 的功耗。這不僅是技術規格的競逐,更是記憶體廠商試圖打破「景氣循環慘業」標籤,藉由客製化與高附加價值產品,重新定義半導體產業鏈價值分配的戰略布局。