2024 年 Copilot 進入商轉,帶動 AI 伺服器及終端 AI PC 發展

作者 | 發布日期 2024 年 01 月 17 日 14:19 | 分類 AI 人工智慧 , Microsoft , 半導體 line share follow us in feedly line share
2024 年 Copilot 進入商轉,帶動 AI 伺服器及終端 AI PC 發展


AI 話題熱議,2024 年會拓展至更多邊緣 AI 應用,或延續 AI 伺服器基礎,推至 AI PC 等終端裝置。TrendForce 預測,2024 年全球 AI 伺服器(含 AI Training 及 AI Inference)超過 160 萬台,年成長率達 40%,後續 CSP 也會更積極投入。

由於嚴謹的Edge AI應用,回歸至終端AI PC,落實分散AI伺服器的工作量能,並擴大AI規模的可能性。TrendForce定義AI PC需達微軟要求40TOPS算力基礎,考量滿足需求的新品出貨都落在今年下半年,待CPU產業龍頭英特爾2024年推出Lunar Lake後,2025年才可望見證更快速成長。

目前AI PC市場大致分為兩大推動力量,一由終端應用需求推動,主要是微軟憑個人電腦Windows作業系統及Office等工具等獨占市場地位,推新世代Windows整合Copilot,使Copilot變成硬需求。二為CPU領先者英特爾訴求AI PC為搭配CPU+GPU+NPU架構,推動發展各種終端AI應用。

以微軟Copilot對算力的要求,高通2023年底發表的Snapdragon X Elite平台,下半前會先出貨符合Copilot標準的CPU,算力應可達45TOPS,AMD之後Ryzen 8000系列(Strix Point)也符合此規格。若以英特爾2023年12月Meteor Lake看,CPU+GPU+NPU算力僅34TOPS,並不符合微軟要求,但今年底Lunar Lake有機會超過40TOPS門檻。

將來高通、英特爾、AMD競逐AI PC時,也會牽動x86及Arm兩大CPU陣營的Edge AI市場競爭。高通有望先達到微軟需求,以PC主要OEMs如Dell、HPE、LENOVO或華碩、宏碁等今年陸續開發高通CPU機種,以爭取首波AI PC機會,給X86陣營一定威脅。

AI PC有望帶動PC平均搭載容量提升,拉高PC DRAM的LPDDR比重

從微軟對AI PC規格要求看來,DRAM基本需求16GB起跳,長期看TrendForce認為,AI PC有機會帶動PC DRAM位元需求年成長,伴隨消費者換機潮,增加產業對PC DRAM的位元需求。

再者,以微軟定義的滿足NPU 40TOPS CPU而言,共三款且依出貨時間分別為高通Snapdragon X Elite、AMD Strix Point及英特爾Lunar Lake。三款CPU共同點為皆採用LPDDR5x,而非現在主流DDR SO-DIMM模組,考量在傳輸速度提升; 以DDR5而言,速度為4,800~5,600Mbps,LPDDR5x落在7,500~8,533Mbps,對需接受更多語言指令及縮短反應速度的AI PC幫助不少。TrendForce預期,今年LPDDR占PC DRAM需求約30%~35%,AI PC的CPU廠商規格支援後,可再拉高LPDDR導入比重。

(首圖來源:微軟