看遍所有「AI PC」,原來 Mac 一直在這裡

作者 | 發布日期 2026 年 03 月 09 日 7:30 | 分類 AI 人工智慧 , Apple , 桌上型電腦 line share Linkedin share follow us in feedly line share
Loading...
看遍所有「AI PC」,原來 Mac 一直在這裡

年初 Mac Mini 一度缺貨,等待時間甚至長達一個半月。

Mac mini 是好產品,這件事大家一直很清楚。價格誠意高,M 晶片性能又好,入門款不到 2 萬元就可擁有,很適合當創作新手的主力機。然最近 Mac mini 爆紅,與創作或日常使用沒什麼關係。

關注科技新聞的讀者應該都知道原因:OpenClaw(之前叫 Clawdbot)爆紅。

OpenClaw 有多種部署方式:可以裝在自己的電腦,也可以配成專用電腦;部署在雲端的虛擬器/沙盒環境也沒問題。後來主流 AI 服務也推出雲端一鍵部署替代方案,降低 AI 小白門檻。但剛開始最快方法就是買一台 Mac mini。

理由一定不是因為便宜,更在要讓 OpenClaw 有意義,需要給它「肉身」,讓它存取檔案、操作軟體。雲端伺服器能跑 OpenClaw,但仍不是自己的電腦,沒有檔案、軟體、瀏覽器登錄的各種帳號,沒有所謂「上下文」。Mac mini 放在桌上,7×24 小時不用關機,甚至遠端操控聊天機器人連螢幕都不用。

給 OpenClaw 專用電腦,唯一可觀成本是後端接入的大模型 API 的 token 費,很多早期玩家都在這吃過虧。但如果再買規格夠高的 Mac mini,下載夠大的模型到本端運行,除了電費和網路費,簡直就是個免錢助理。

MacBook 也行,但是……

Tom′s Hardware 和 TechRadar 等外媒報導,OpenClaw 爆紅後,Mac mini 24GB 和 32GB 等待期延至六天到六星期;更高規格的 Mac Studio 交貨時間也從兩星期漲到兩個月。這些等待時間,是 OpenClaw 早期玩家用真實購買投的票(部分機型缺貨也和蘋果近期推出新款 Mac 桌機有關,以往每次臨近新機發表,舊機都會進入售罄狀態。OpenClaw 爆紅並非唯一原因)。

Mac 就這樣默默成為 2026 年首選的「AI PC」,反倒是鼓吹「AI PC」幾年的 Windows PC 一點屑屑都沒吃到。英特爾、AMD、高通等及主流 PC 品牌,2023 年就開始賣「AI PC」概念了,最新 Windows 電腦認證 Copilot+ PC 的比比皆是,GPU、NPU 性能也不差,有的整機價格比 Mac 同級產品更便宜。

但問題是,為什麼大家還是一窩蜂衝向 Mac?

為什麼是 Mac?

Windows PC 和 Mac 誰更好的爭論,永遠沒有絕對答案,但如果限定 AI 開發,Mac 就是心照不宣的選擇,雖然大模型「大腦」都在雲端伺服器,開發者的手卻都在 Mac 上。這跟 Mac 外形和操作體驗關係不大:macOS 流著 UNIX 的血,才是關鍵。

AI 代理的核心工作是操作檔案、調用命令行工具、調度 API 甚至控制圖形介面等,更直白點,代理就是智慧且自動化的「腳本工程師」,只是腳本由大語言模型即時產生。macOS 屬類 UNIX 系統,原生就支援 bash、zsh 指令。

這解決 AI 開發最基礎的環境搭建。Windows 系統可能得先安裝 WSL2 虛擬機,但 Mac 從 Python 環境到複雜的 C++ 編譯工具鏈,都是開箱即用。Homebrew 等包管理器,讓安裝各種工具和依賴一行指令就能搞定。

另外,macOS 符合 POSIX 標準,處理檔案路徑、多線程任務和網路協定時可靠性稍高。AI 代理往往需頻繁讀寫數據、調用 API,系統級高效調度讓代理在 Mac 跑的節奏更快。這種原生感和穩定性,讓開發者、嘗鮮使用者更快入門,時間真正花在編排代理。

Windows 有 WSL、PowerShell,功能大部分也涵蓋。但 WSL 是疊加在 Windows 上的相容層,還有路徑約定、登錄表機制、許可權模型等歷史遺留問題。 AI 模型和代理專案在 Windows 執行的摩擦力確實更高。

以 Ollama 和 LM Studio 為例,讓端側推理大模型變得像「下載、安裝、運行」簡單。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 雖然一開始就支援兩平台,但社群的 Mac 口碑始終更好,OpenClaw 也是如此。

往硬體層面繼續深入,記憶體是大語言模型推理運行的命脈。

還是以 OpenClaw 舉例,用戶可 token 付費接入雲端模型,但它更擅長端側模型推理驅動。經過普遍研究,想讓 OpenClaw 像智商合格的人工作,後端模型參數量底線約 70 億,往往要上到至少 320 億參數量才能較穩定運作。

這麼大的模型即便 4-bit 量化後,仍需約 20GB 記憶體(還要留一些給上下文視窗),Windows PC 的架構會顯得捉襟見肘。CPU 記憶體和顯示記憶體有物理隔離,數據經 PCIe 總線傳輸,受頻寬瓶頸影響。頻繁數據搬運,會影響推理速度。

更別提大模型普遍靠 GPU 加速推理,顯示記憶體得夠大到裝得下模型。輝達消費級顯卡,只有 90 結尾的 24GB 達到要求,但配成整機(只考慮新機)的話合計成本至少 6 萬元,用新顯卡更會飆破十萬元甚至超過 20 萬元。

蘋果統一記憶體架構 (Unified Memory Architecture)讓 M 系列晶片 Mac 的終端推理更大模型時游刃有餘。簡單說,統一記憶體架構效果,是 CPU、GPU、神經計算引擎共用同個記憶體池,不再有物理總線搬運損耗,讓 Mac 獲得極高記憶體頻寬,並多機串聯擴展性能更好。

以 Mac mini 為例,選擇性能更高的 M4 Pro 處理器,搭配 48GB 記憶體,其他選基礎就好,整機價格  萬元,即可達 OpenClaw 社群普遍推薦的 320 億參數量模型水準。當然這還只是對 token 吞吐速度有要求的專業規格,如果只是愛好者、嘗鮮玩一下 OpenClaw,降到常規 M4 晶片和 32GB 記憶體也能跑。

這成本比較還是有前提:專用終端推理跑 OpenClaw,而不是當成主力機。同價位 Windows PC 還能玩遊戲、剪影片,實用性更高。

另外,Mac 統一記憶體和 PC 平台獨顯記憶體也不是同一回事。統一記憶體由系統和模型共用,32GB 記憶體的 Mac mini,macOS 系統和其他軟體仍需佔幾個 GB。RTX 3090 記憶體獨立,模型可全部佔用,甚至配合 CPU 記憶體跑更大的量化模型。

如果你只用雲端 API 當 OpenClaw 大腦,不考慮終端部署,那 Mac 的易用性優勢依然在。CUDA 雖提供統一記憶體程式設計介面,但物理上 CPU 記憶體和 GPU 記憶體各自獨立,數據搬運和頻寬瓶頸並未消除。

再來看功耗。

AI 代理工作方式是個迴圈:任務觸發、思考推理、執行、等待、再觸發。上述 Windows PC 會跑到 300~400W 左右(本地部署),散熱噪音和電費都不是小數目。Mac mini 通常穩定功耗 10~40W,峰值功率 65W(M4)或 155W(M4 Pro),散熱可控,幾乎沒有風扇噪音,運行更安靜。這種低延遲、低功耗的持續工作方式,會產生不知不覺的體驗差異。

▲ 網友 3D 列印的 Mac mini 外殼套件「Clawy MacOpenClawface」。

當然本文還是圍繞 OpenClaw 這以推理為主的 AI 討論,如果工作涉及本地微調,且對效率有追求,那 macOS 平台要往往要上到 Mac Studio 或至少頂配 MacBook Pro,才能算摸到門檻。Mac 不支援 CUDA 也是可能永遠無法改變的事實,但 CUDA 的真正戰場是模型訓練,推理場景少得多,畢竟蘋果推理有 MLX 這張王牌(之後會詳述)。

再回到 OpenClaw:創造者 Peter Steinberger 表示很喜歡 Windows,覺得功能更強。他在 Lex Fridman Podcast 說,Mac mini 不是唯一「肉身」選擇,以 WSL2 跑 OpenClaw 已非常成熟,他甚至公開吐槽蘋果 AI 領域「搞砸了」,且對蘋果生態封閉性很不滿。

但客觀講,技術小白的部署門檻,Mac mini 確實是最省事、最容易上手的方案,主因就是功耗、靜音、體積夠小,就像只要一牆角就夠放、24 小時待機且不需要維護的「伺服器節點」。

還有一個和功耗有關的例子:工程師 Manjeet Singh 成功逆向工程 M4 處理器「神經引擎」(Neural Engine,ANE),發現 ANE 功耗效率極高:算力跑滿時效率高達 6.6TOPS/W。蘋果 M4 GPU 約 1TOPS/W;輝達 H100 約 0.13TOPS/W,A100 是 0.08 TOPS/W。

折算 A100 單卡吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 功耗性能卻是 A100 的 80 倍。Singh 文章說:對終端推理,ANE 性能非常出色。

從神經引擎說起

2011 年蘋果 A5 處理器圖像處理單元(ISP)首次以硬寫入,做到臉部即時檢測等後來視為 AI 任務的功能。2014 年蘋果收購 PrimeSense,研發全新、神經網路計算專用的處理器。三年後 iPhone X 問世:A11 Bionic 處理器加入前面提到的神經引擎 ANE,算力只有區區 0.6TOPS,就可驅動 Face ID 和拍照人像模式。

AI 還沒進入大模型時代,主要跑各種機器學習演算法。市場對蘋果處理器沒什麼特別反應,但蘋果從未放棄,持續加碼。三年後 M1 發表,統一記憶體架構同時到位,ANE 也進駐 Mac,桌機功率預算更充足,也讓 ANE 算力跳到 11TOPS。之後每代更新:M2 是 15.8TOPS,M3 是 18TOPS,M4 是 38TOPS,到 2025 年底 M5 達 57TOPS,從 M1 到 M5,蘋果 ANE 算力漲超過五倍。

其他 PC 廠商當然很羡慕。蘋果為 Mac 加入 AI 加速硬體前,已有數千萬甚至上億台 iPhone 跑同一套 ANE 架構,功耗表現、穩定性、極端情形的邊緣案例,市售機早已驗證,再搬上 Mac。

英特爾和 AMD 行動端幾乎沒有消費級規模,高通雖然也把 Snapdragon 晶片放進數億台 Android 手機,但依舊只是晶片供應商。Android 的 AI 是 Google Gemini 及各大手機廠商聯合第三方 AI 實驗室做的,Windows 的 AI(Copilot)是微軟生的。

蘋果不同在於,做到垂直整合,同時掌控硬體和軟體,其他晶片廠商沒有這種統一控制權,當然 Mac 跑推理大模型和 ANE 沒什麼關係,它更擅長處理 Face ID、人像辨識這類固定模式 AI 任務,真正承擔主要計算量的是 GPU。

最近情況又有細微變化。首先,M 系列晶片 ANE 已承擔提示詞注入 prefill 工作,以及剛提過的 M4 ANE 逆向工程:工程師還跳過 CoreML 直接調用 ANE,輸送量大舉提升。或許可用這種方法找到直接利用 ANE 加速推理甚至訓練的通用法。

2023 年底蘋果開源 MLX,把 M 系列晶片專用最佳化模型推理框架直接開放給開發者。去年基礎模型框架和 Apple Intelligence 一起發表,App 開發者可用 iPhone 和 Mac 調用內建基礎模型,無需連網,數據不離開設備。

Apple Intelligence 一再跳票沒什麼好說,但蘋果遠在十年前就開始試水,幾年前就為桌面級 AI 開發打下基礎,也是事實。但 Windows 方「AI PC」出現在英特爾、AMD 和 PC 廠商新聞稿和 PPT 是 2023 年底才開始的。

2024 年 5 月,微軟發表 Copilot+ PC 認證體系,旗艦功能名叫「Recall」,邏輯是系統會持續截圖螢幕,Windows 系統級 AI 就能幫你回憶過去看過的東西。先不說發表當時的意義是什麼,安全性首先就有嚴重問題:發表一個月後,研究員就發現 Recall 會把所有截圖存在未加密的本端明文資料庫。

微軟緊急撤下 Recall 功能。過半年後微軟再推測試版,再次因新安全問題延期。直到 2025 年 4 月,Recall 才上線,但改成預設關閉,啟動後資料加密存儲。

從發表會到真正能用近一年,可說整個 Windows 生態 AI PC 的旗艦功能砍掉重練,尷尬程度其實不亞於 Apple Intelligence/新 Siri 一跳再跳,但可能因 Windows 生態聲量太低,AI PC 沒多少人關注,很多人都沒聽過這回事。

Copilot+ PC 體系認證標準,微軟注重神經處理引擎 NPU,要求 40TOPS,但算力用途是即時字幕、背景虛化、照片增強,諸如此類的消費端小任務,大語言模型推理從來不在它的射程範圍(同理蘋果 ANE)。當開發者嘗試做終端大語言模型推理,會發現雖然這些電腦名為 AI PC,但並沒最佳化 AI 推理用途。微軟 Copilot 本身核心算力來自 Azure 雲端,和終端算力幾乎無關,買了 Windows AI PC 的使用者,最有感的 AI 提升,大概只有即時字幕和照片自動分類。

說到終端推理,還有一個關鍵因素:Windows AI 生態最佳化路徑很分散。

NVIDIA GPU 用 CUDA 和 TensorRT,英特爾 NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驅動棧。模型存儲格式也很零碎,有 CPU+GPU 推理的通用格式(GGUF,準確說是 CPU 推理+GPU 分層卸載),也有 GPU-only 格式(EXL2)。

這代表想讓模型與模型驅動的功能在 Windows AI PC 跑,推理後端工作就會更複雜。微軟有 ONNX Runtime 和 DirectML(已進入續命狀態)為統一抽象層,但統一的代價是犧牲各廠商的峰值性能。蘋果是唯一為自家 PC 硬體專門開發並持續維護 LLM 推理框架的電腦廠商,框架就是 MLX。

Hugging Face 等開源模型平台,很容易就能找到大量採 MLX 框架的模型,只要帶有 MLX 副檔名,並記憶體/處理器允許,就是「開箱即用」。不過這幾天 MLX 主要貢獻者之一 Awni Hannun 剛從蘋果離職,為專案後續發展增添變數。Hannun 也表示 MLX 團隊仍有許多優秀員工,大家可以放心。

我們自己的體驗

過去一年,愛范兒做了不少終端部署 AI 模型測試,也採訪相關外部開發者。有兩件事值得一提。

去年開春 DeepSeek 橫空出世,新 Mac Studio 不久後上市。愛范兒用一台售價快 10 萬人民幣的 M3 Ultra Mac Studio(512GB+16TB)跑 DeepSeek-R1 671B 模型(其實只要記憶體,硬碟不用那麼大,1TB SSD 售價 7 萬多人民幣型號就夠了),以及蒸餾過 70B 版本。

當時結論:終端部署對話,日常用 70B 足矣,花幾萬買台機器只為了跟 AI 聊天,當真是錢太多。當時模型能力確實不太行,後來才有新多模態模型和代理出來。但 671B 模型的天量參數模型能一台桌機推理,仍是個奇觀。512GB 統一記憶體,671B 模型佔了 400GB,加上上下文、macOS 系統本身及其他任務佔用,基本近滿載,但機器全程非常安靜,噪音也是正常範圍,不會過熱。

這個參數規模,傳統 AI 基礎設施邏輯屬資料中心等級,消費級硬體理論上不會出現,但那台 M3 Ultra Mac Studio 就硬生生也靜悄悄上場了。

之後愛范兒採訪英國牛津大學創業團隊 Exo Labs,用四台 512GB 統一記憶體 Mac Studio,串聯組成 128 核 CPU、320 核 GPU、2TB 統一記憶體、總記憶體頻寬超過 3TB/s 的算力集群。團隊為 Mac 集群開發調度平台 Exo V2,可同時載入兩個 DeepSeek 模型(V3+R1,8-bit 量化),不但兩模型並行推理,甚至可用 QLoRA 做一些本地微調,縮短訓練任務耗時。整套系統功耗控制在 400W 內,運行時同樣幾乎沒有風扇噪音。

同等算力的傳統方案,需約 20 張 NVIDIA A100,當時成本超過 200 萬人民幣;Exo Labs 方案總成本才不過 40 萬人民幣(同理 SSD 嚴重溢出,其實可以 30 萬人民幣就夠)。

Exo Labs 創辦人告訴愛范兒,牛津有自己的 GPU 集群,但需要好幾個月前申請,且一次只能申請一張卡。這些桎梏逼迫他們創新,又正好遇到趁手的工具:統一記憶體架構、MLX 及 Mac 電腦。採訪文說:「如果說輝達 H 系顯卡是 AI 開發的金字塔頂端,那 Mac Studio 就是中小團隊的瑞士刀。」

這件事,蘋果其實早就知道。

真正的 AI PC 是什麼?

去年蘋果發表基礎模型框架,讓 iOS 和 macOS 開發者可調用系統內建基礎模型,零網路延遲,零 API 費用,數據不離開設備。儘管後來蘋果基模團隊幾近分崩離析,但反覆運算方面蘋果沒有停在原地,一直知道開發者在哪裡、想要什麼。蘋果回應就是將大模型驅動的 AI 變成操作系統的基礎設施,讓開發者更方便調用。

前幾日蘋果開源 python-apple-fm-sdk,以往蘋果基模完整測試和最佳化,需 Swift 環境完成,現在這套 SDK 讓路變寬,習慣 Python 工作流的開發者也能參與。蘋果隱私設計哲學貫穿始終:python-apple-fm-sdk 調用的基礎模型完全本端運行,數據不離開設備。蘋果整套 AI 體系在必須上雲端的場景,走的是 Private Cloud Compute,數據處理完即刪除,蘋果無法存取。

反過來看微軟 Recall,同樣是讓 AI 存取使用者資料,第一版存在未加密的明文資料庫,一個架構阻斷洩密,一個是出事再修補。但話說回來,Mac 的 AI 開發和部署工具優勢,更像「相容度優勢」,也可以說是後天意外獲得。

意思是:蘋果做神經引擎,最初是為了服務 Face ID 和人像模式;做統一記憶體架構,是擺脫英特爾的必要工作;開源 MLX,是回應開發者對高效推理工具的需求──AI 代理爆發,Mac 正好趕上,是上述這些與更多沒提到的工程決策的意外收益。

Mac 一開始不是為 AI 設計,產品定位更接近「創作者工具」。蘋果主客群一直是影音工作者、藝術家、軟體工程師,他們需要低雜訊、持續性能、高記憶體容量、全天候運行的機器。

AI 模型推理及現在最紅的 AI 代理,只是恰好需要一樣的東西。

回頭看,十幾年前蘋果增加投資機器學習時,大概也沒預見 2025 年有個 OpenClaw 會爆紅。甚至十年前蘋果也不喜歡 OpenClaw 這種「回報高風向更高」,一旦出現幻覺就把用戶隱私、數據安全拋在腦後,無視各種軟體工程規章制度的東西。

但如今就算蘋果不喜歡它也不行。就像莫非定律,冥冥之中有些事早已注定。多年前蘋果打的每張牌,無論有意還是意外,今年這代理元年(希望這次是真的),成為很難不贏的牌組。2023 年開始力推 AI PC 的 Windows 陣營,還在追趕蘋果 2020 年 M1 就確定的架構優勢。當然 2025 年蘋果 AI 壞消息不斷,這差距有追上的可能,但蘋果當然也不會停下腳步。

最近蘋果推出 M5 Pro 和 M5 Max,採雙核心融合架構 (Fusion Architecture),新聞稿更點名 LM Studio 為 LLM 性能基準。蘋果過去硬體新品發表時不怎麼說「大語言模型」,特別是終端推理語境──現在就不一樣了。

說在最後

吹了蘋果整篇文,要冷靜一下,標題的答案為何?愛范兒還認為蘋果做得不夠多,還沒看到個人計算產品可稱之為 AI PC,或真正「原生的 AI 硬體」。回到 OpenClaw,今日從終端部署代理看到,真正 AI PC 應該長什麼樣子,已隱約可見。

應用層面,人類「應用」概念可能部分退化回無圖形介面時代。畢竟人類才需要圖形介面,AI 代理不需要。且你會發現,最近越來越多人開始習慣對話和下指令的互動方式了。今天 AI 代理的嘗鮮者,找工具和技能塞給代理,將來就是 AI 代理會自己去公開程式庫抓新工具和外掛程式補強。

系統層面,許可權體系將為 AI 代理工作原理重構,代理能直接操控各種介面。底層會有模型編排調度機制,根據任務隨時切換。本地推理和隱私雲端推理也會形成完整、安全、隱密的封閉環境。數據無論傳到哪裡,都經過向量化、加密存儲,即用即焚等等等。

換句話說,真正的 AI PC 應是從底層開始,設計之初就把 AI 當成「一等公民」的系統。

照這標準,Mac 和 Windows 都還是過渡品。Mac 較接近,因 Unix 環境、硬體統一、生態成熟,AI 代理出現前就已達成,Windows 歷史包袱更重,改起來更難,還在補課。但繞了一大圈,其實還沒問到最本質的問題:真正的 AI PC,還需要是實體「PC」嗎?

換個思路,所有 AI 代理部署和運行全在雲端,使用者相關數據,也即「上下文」都在雲端安全加密儲存,人類只需把終端設備當成「對話器」(communicator),以及感測器(sensor)用來拍照錄音上傳數據給代理,甚至不需太多終端算力。

Mac 是現在最好的 AI PC,但將來的「AI PC」卻可能更像……不就是 iPhone 嗎?

(本文由 愛范兒 授權轉載;首圖來源:Unsplash

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》