大模型 token 太貴了?蘋果直接「全免」開發者費用

作者 | 發布日期 2025 年 06 月 11 日 8:00 | 分類 AI 人工智慧 , Apple , Apple Intelligence line share Linkedin share follow us in feedly line share
Loading...
大模型 token 太貴了?蘋果直接「全免」開發者費用

去年 WWDC24,蘋果過度宣傳又放鴿子的 Apple Intelligence 餘韻尚存,6 月 10 日凌晨 WWDC25 主演講(錄影)剛結束,AI 相關仍令人不時感歎:「就這」。

今年蘋果AI新功能如即時翻譯(Live Translation)、快捷指令等,並無太多革命性;至於視覺智慧(Visual Intelligence),不僅功能落後Google Lens六七年,互動體驗也遠未達Android友商內建AI / Agent產品上半年水準。但看完全場可斷言:唯一Apple Intelligence的消息,將造成深遠影響:無論普通用戶還是開發者。

就是「基礎模型框架」(Foundation Models Framwork),蘋果為開發者提供的裝置端AI模型存取框架。App開發者可輕鬆存取裝置端大語言模型(On-Device Model),且無需支付token成本。

這代表開發者無負擔提供基於LLM的能力和服務,純裝置端推理,無需擔心調用雲端LLM API產生的token費用,自然也不必成本轉嫁給用戶。開發者能維持想要的收費模式,使用者也獲益。

Apple Intelligence,純裝置端模型

去年WWDC24蘋果宣布一系列以「Apple Intelligence」為名的AI產品、功能和開發者功能。已知大部分都跳票,甚至是「霧體」(vaporware,宣布卻跳票的軟體),都加深大眾對蘋果AI的質疑。但蘋果仍坐擁全球智慧手機第一出貨量。即便超大參數量的雲端LLM動作遲緩,人們如何用AI及開發者如何專案使用AI,仍有超大話語權──客觀且毫無疑問。

今年WWDC25,筆者看到蘋果開始行使話語權,告訴開發者:

你想給用戶AI能力?沒問題,你可以完全在設備本地用蘋果提供的裝置端模型LLM推理,不需要上網,既保護用戶隱私,也不會產生雲端費用。

「基礎模型架構」就是蘋果交給開發者的利器。基礎模型是Apple Intelligence的核心,去年僅用於蘋果自家產品和功能。從今天開始,蘋果把基礎模型開放給開發者,任何第三方應用都可以直接利用這些裝置端的基礎模型來實現AI功能,為用戶帶來嶄新體驗。

現場展示的「Kahoot!」為教育類產品,可用裝置端模型產生客製化題目。又或Alltrails,健行愛好者必備產品,即使深山險境完全無網路也能用。

(Source:蘋果

這次又有哪些基礎模型?

已知至少這兩大類(模型未知,蘋果還沒有說更多資訊)。目前「基礎模型框架」原生支援Swift(其他語言未知),開發者只需三行程式碼就可存取,支援內容產生、工具呼叫等多種LLM。但開發者選擇太多:DeepSeek、Claude、O系列、Gemini……以及各種官方版號和各種場景再訓練版,憑什麼要選蘋果基礎模型?

蘋果價值非常直接。簡單說,用這些LLM都有經濟成本,用戶量和活躍度、黏著性越大,呼叫雲端API、產生token的成本越高。明星新創可經創投融資,大廠可用現金儲備補貼,結果是用戶都習慣免費的LLM產品。但對中小開發者,特別是獨立開發者,就是非常實際的問題:想像用戶剛下載App,想試試AI功能,馬上就看到「本月還有三次免費額度」,如果競爭對手又有大廠,怎麼競爭?

現在蘋果帶著「基礎模型框架」降臨世間,免費開放裝置端模型,呼叫iPhone / iPad / Mac本地算力,快速有效率且隱私地LLM推理,解決用戶需求。開發者不必再為支付雲端API費用而資金鏈緊張;不再負擔token成本而定價策略彈性化,堅定體面選擇喜歡、用戶也舒服的商業模式。如果是中小或獨立開發者,這聽起來太美麗了吧?

這是開發者和用戶雙贏局面。當然,加上蘋果,就是三贏。

AI版「雖遲但到」

知名開發者、蘋果分析師John Gruber前幾天發表很有趣的部落格文章。他指蘋果總是在關鍵產品、技術比競爭對手慢,大家都知道。但必須承認,公司歷史,蘋果確實沒錯過重大教科書級的科技革命。

如蘋果Safari瀏覽器,以及瀏覽器內核WebKit,推出時間是2003年初,比轟動世界甚至叫囂讓微軟生意做不下去的Netscape足足晚了八年,甚至比「.com泡沫」破裂還晚三年,但晚來總比不來好,更別提Safari之前,Mac平台沒一個好用的瀏覽器。

如果套用這個邏輯,被迫捲入AI時代的蘋果,就需要今天能與Safari / WebKit地位對等的新產品組合。

好消息是:正如本文開頭提到,iPhone出貨量和市占率優勢實在太大,無論外界如何嘲諷蘋果AI時代落後,都無法否認:相當長時間,蘋果仍有足夠話語權,定義使用者怎樣(在iPhone / iPad / mac / Vision)使用AI,而不是讓AI定義產品該長什麼樣子。

OpenAI收購前蘋果設計長Jony Ive的公司,試圖開發「完全AI原生」新形態設備;也會看到OpenAI和蘋果達成協議,成為蘋果生態唯一「全球只是合作夥伴」──也就是唯一的第三方基礎模型供應商。

蘋果認為自己比OpenAI差嗎?沒有。不然蘋果應該付錢給OpenAI。相反地,The Information報導,OpenAI會像老前輩Google去當iOS預設搜尋引擎,為了進入蘋果生態成為預設基礎模型,交「過路費」給蘋果。如果ChatGPT用戶訂閱月費是20美元,蘋果抽成可能高達30%,且這筆收入幾乎等於純利潤。

蘋果向OpenAI收錢,然後變相補貼開發者及用戶,是不是頗令人意外?

2009年第一財季蘋果財報會議,因賈伯斯病重第二次擔任蘋果代理CEO的庫克說了幾句話,後來稱為「庫克信條」。一段是這麼說的:

我們相信,我們需要擁有和控制產品背後的主要技術,且只參與能有重大貢獻的市場。

結合John Gruber的分析,這想法可一句話總結:

蘋果應該製造設備,執行AI產品/服務/LLM載體,用這個設備載體定義人們如何使用AI,而不是讓AI定義該如何設計製造產品。

WWDC25之後,外界觀察和評論蘋果AI時,或許可採這種新視角。

Apple Intelligence,微更新

最後來看看WWDC25其他AI功能​​。

即時翻譯(Live Translation)

蘋果終於iOS / iPadOS / macOS整合一套達業界(兩三年前)水準的即時翻譯功能。目前即時翻譯支援資訊、電話和FaceTime三應用。所有翻譯都在裝置端完成。

  • 傳訊時使用者可用母語輸入,UI即時看到翻譯後外語文字輸出,然後手動點擊發送;同理,對方訊息在用戶UI也會自動翻譯。
  • 通話時正常說話,雙方都能聽到翻譯後語音。
  • FaceTime一方說話,另一方能看到翻譯字幕。

(Source:蘋果,下同)

Genmoji和影像樂園(Image Playground)

Genmoji:使用者可用LLM提示指令,產生更多新元素的Genmoji頭像,如合成樹懶和燈泡。使用者可用ChatGPT多模態模型產生不同風格或隨機風格的照片,你可以理解為這是蘋果官方OpenAI 4o外殼。

視覺智慧(Visual Intelligence)

視覺智慧已支援拍照搜尋。今年WWDC又獲令人無語的更新:支援截圖搜尋/後續互動。如下圖物品可直接呼叫任意App Store應用程式搜尋,或讀取截圖日期時間地點,新增至日曆項目、備忘錄等。

▲ 現在視覺智慧終於追上Google圖片搜尋及Lens六七年前就有的功能。

但令人無語處在互動太古老:截圖,而不像2025上半年Android手機不用截圖直接讀取用戶螢幕內容回應,甚至Agent功能直接幫用戶操作畫面。筆者理解是蘋果不這樣做有兩個原因:

  1. 蘋果AI確實不如Google / Android廠商。
  2. 出於隱私顧慮,需用戶手動截圖、點擊視覺智慧辨識按鈕。

捷徑(Shortcuts)

支援Apple Intelligence,開發者可修改和配合自家App,讓使用者快速產生App捷徑。不知道多少人會用捷徑,全世界應該有幾十個吧?

(本文由 愛范兒 授權轉載;首圖來源:Unsplash

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》