
在今年 WWDC25 發表會接近尾聲時,蘋果軟體工程資深副總裁 Craig Federighi 表示蘋果已「擴展」對 Swift Assist 的構想,未來將允許開發者直接將自己選擇的大型語言模型(LLM)整合進 Xcode。
什麼是 Swift Assist?
這是蘋果在去年 WWDC 宣布的一項功能,但直到現在才隨 Xcode 26 beta 一併推出。根據蘋果最初的說法,它的目的是「成為開發者所有程式撰寫任務的夥伴,讓他們能專注於更高層次的問題與解決方案。它與 Xcode 無縫整合,並了解最新的軟體開發工具套件(SDK)與 Swift 語言功能,因此開發者總能獲得與專案完美結合的最新語法建議。透過 Swift Assist,探索新框架與實驗新想法只需一個請求。Swift Assist 採用在雲端執行的強大模型,且如同所有蘋果開發者服務一樣,是以隱私與安全為設計核心。開發者的程式碼僅用於處理請求,不會儲存在伺服器上,蘋果也不會用其訓練機器學習模型。」
全新的 Swift Assist 有何不同?
蘋果現已揭示 Xcode 26 中 Swift Assist 的最新願景,它包含內建的預測程式碼補全模型、與 ChatGPT 的原生整合(提供有限的免費使用額度),以及讓開發者串接第三方提供者(包含在本機執行的模型)的機制。
預設情況下,開發者只需幾個步驟即可啟用 ChatGPT,雖然每日請求次數有限。如果開發者已訂閱 ChatGPT Plus,也可登入帳號或輸入 API 金鑰以移除限制。
真正的突破在於 Xcode 的開放性:開發者只需輸入 API 金鑰即可新增其他模型提供者,例如 Anthropic,並存取目前業界最先進的前沿模型。蘋果的實作也允許使用者選擇每個提供者的顯示模型,並可將常用模型標示為最愛以利快速切換。
甚至連本機模型也可支援,如果開發者使用像是 Ollama 或 LM Studio 等工具,Xcode 將允許他們直接調用在 Mac 上執行的模型。開發者可新增任意數量的模型提供者,並在 Xcode 的 Coding Assistant 介面中於對話開始時自由切換。
此舉使 Xcode 與現今 AI 工具的發展趨勢接軌:模型中立、可自訂且模組化,無需依賴蘋果是否採用最新模型版本。這無疑是正確的方向,也將使 Xcode 在多模型環境下變得更具吸引力。
(首圖來源:蘋果)