
蘋果稍早終於公布了自家的 AI 技術 Apple Intelligence,除了演繹了許多設備端、私有雲模型外,該公司也進一步宣布與 OpenAI 合作,將 GPT-4o 整合至 Siri 當中;但這也讓人好奇,為何蘋果會選擇與外部技術整合,而非靠內部量能來提供 AI?
對此,蘋果軟體資深副總裁 Craig Federighi 解釋,在 Apple Intelligence 中有許多體驗都是基於蘋果自家量能所做出的模型,像是設備本地端與私有雲模型 Private Cloud Compute,但是這些都是針對用戶一些較簡單的問題、任務回應所打造,透過上述 2 種模型,可以確保這些問題、任務的安全性與隱私性。
「但較廣泛的模型則不是蘋果所擅長的」,Federighi 解釋,外部有很多平台、模型所涉及的範圍廣泛,包括醫學、法律等專業知識等,蘋果會希望也能替這些用戶需求服務,因此與 OpenAI 合作,這樣用戶可以不需要為了要詢問一個問題而中斷當下工作、轉使用其他設備。
但什麼樣的問題可以被稱做「廣泛」?Federighi 以料理為例,當用戶詢問某些食材搭配可以做出哪些料理時,這時就可以借助外部模型的利用來獲得解答。不過雖然蘋果整合了 GPT-4o,但本質上是透過 Siri 來發送請求給 ChatGPT,從隱私的角度來看,使用者始終有受到蘋果的保護。
蘋果在 WWDC 議程時提到,除了 OpenAI 外,蘋果未來也可能會與不同的平台合作。Federighi 指出,這是因為不同使用者可能會有自己的偏好,蘋果會希望給予用戶不同選擇,像是 Google Gemini 就是一種可能的選擇。
(首圖來源:科技新報)