群聯 CES 推出全球首款 aiDAPTIV+ iGPU PC 平台,加速大型 AI 模型落地

作者 | 發布日期 2026 年 01 月 07 日 10:30 | 分類 AI 人工智慧 , IC 設計 , 半導體 line share Linkedin share follow us in feedly line share
Loading...
群聯 CES 推出全球首款 aiDAPTIV+ iGPU PC 平台,加速大型 AI 模型落地

群聯電子於 CES 2026 宣布,將其獨家專利的 aiDAPTIV+ 技術正式延伸至整合式 GPU(iGPU)的 PC 架構。此項技術突破讓筆記型電腦、桌上型電腦及迷你電腦等主流設備,能以更低的門檻解鎖大型 AI 模型的運算潛能,標誌著邊緣 AI(Edge AI)普及化的重要里程碑。

NAND Flash 轉化為 AI 記憶體,突破邊緣運算瓶頸

隨著邊緣 AI 需求日益複雜,市場急需可負擔且能運行於日常設備的解決方案。群聯電子宣布憑藉 25 年在 NAND 控制晶片領域的深厚實力,開發出 aiDAPTIV+ 方案,其核心技術在於將 NAND Flash 作為 AI 延伸記憶體使用。這不僅有效解決了市場上記憶體資源短缺的痛點,更讓大型 AI 模型得以在本地端進行推論(Inference)與微調(Fine-Tuning)。

群聯與宏碁(Acer)的深度技術合作充分驗證了此技術的威力。透過工程優化,aiDAPTIV+ 讓原本需要極大記憶體才能運行的 gpt-oss-120b 等大型模型,在僅配備 32GB 記憶體 的 Acer 筆電上順利運行,大幅提升了使用者與裝置端 Agentic AI 互動的流暢度,無論是智慧查詢或生產力應用皆有顯著進步。

三大關鍵優勢,成本、效能與規模的全面提升

群聯在展覽期間揭示了 aiDAPTIV+ 在實際應用中的三大核心價值:

  1. 顯著降低總持有成本(TCO):在 Mixture of Experts (MoE) 架構下,aiDAPTIV+ 將原本依賴昂貴 DRAM 的需求轉移至成本較低的 NAND 儲存快取。測試顯示,處理 120B 參數模型時,DRAM 需求可從 96GB 大幅降至 32GB,極大擴展了可支援 AI 的硬體平台範圍。
  2. 推論效能大幅加速:透過優化 KV cache 的儲存機制,該技術能將已計算的 token 儲存於 NAND 中,避免重複計算,使推論回應速度最高提升達 10 倍,並同步降低功耗。初步測試在 Time-to-First-Token (TTFT) 表現上有顯著改善。
  3. 小型裝置處理大型模型的能力:結合 Intel Core Ultra Series 3(內建 Intel Arc GPU),aiDAPTIV+ 讓筆電也能進行 70B 參數模型 的微調訓練。過去這類工作通常需要依賴成本高出 10 倍以上的專業工作站或資料中心伺服器,現在則讓學生與開發者能以低廉成本取得強大運算力。

業界生態鏈共襄盛舉,驅動 AI 普及化

群聯電子執行長潘健成表示,記憶體需求已成為 AI 普及的關鍵挑戰,群聯透過 aiDAPTIV+ 成功突破 iGPU 的運算限制,讓 AI 模型能真正落實於日常使用的 PC 中。他強調,這能讓企業與個人在兼顧成本、效能與隱私的前提下,加速 AI 的應用落地。

此次 CES 展場上,包含 Acer、Corsair、MSI、NVIDIA、ASUS 與 Emdoor 等多家合作夥伴均展示了整合 aiDAPTIV+ 的相關系統。其中,MSI 現場展示了如何利用此技術加速會議紀錄摘要等線上 AI 應用情境。

(首圖來源:群聯提供)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》