軟硬兼施,蘋果加快腳步布局 AI 版圖

作者 | 發布日期 2018 年 09 月 25 日 8:45 | 分類 AI 人工智慧 , Apple , 晶片 follow us in feedly

自 2018 年 4 月蘋果挖走 Google 搜索技術和人工智慧(AI)部門工程副總裁 John Giannandrea,看得出來這半年蘋果在 AI 領域積極出招,並將 Core ML 和 Siri 團隊合併為 AI / ML 團隊,由 John Giannandrea 擔任機器學習和 AI 策略主管,其中核心 ML 是機器學習 API 於 2017 年推出,協助第三方開發者執行本地 AI 任務和 AI 集中應用程式與服務時,在 iOS 裝置更有效率,以期在 AI 版圖占有一席之地。



儘管 2011 年蘋果推出 iOS 系統人工智慧助理軟體 Siri,搶下 AI 頭香,但沒趕上深度學習浪潮,隨著 Google、Microsoft、Facebook 等科技大廠競相投入,蘋果影響力卻不同以往。不過,這半年來蘋果在 AI 領域有一系列大動作,不論 AI 硬體、軟體、開發工具到應用生態,蘋果皆急起直追,積極結合在行動裝置和生態系統的優勢以迅速追趕。

蘋果透過購併與挖角,積極投入 AI 領域

蘋果近年積極投入 AI 領域,透過收購語音和圖像廠商,提高自身產品價值,強調使用者體驗最佳化。自 2015 年購併語音業者 VocalIQ 和 Perceptio,VocalIQ 提升使用者在與電腦語音交流更加順暢,並轉型為當地 Siri 研發中心;Perceptio 則改善 Siri 功能。2016 年另收購 Emotient,以裝置追蹤、辨識及分析臉部表情,直接用於 iPhone,並收購 Turi 提高蘋果產品與服務運算能力,為蘋果布局 AI 版圖更上一層樓。

2017 年 WWDC(The Apple Worldwide Developers Conference)活動期間,蘋果推出首款 Core ML(蘋果機器學習框架),2018 年 6 月推出 Core ML 2,速度提高 30%,量化使框架能夠將模型縮小 75%,並為 CreateML 工具及其 Core ML 框架延續,即 Core ML(旨在簡化 AI 模式建置)讓開發者更方便訓練機器學習模型並封裝進 App,而 Create ML 則實現在行動裝置的 AI 運算,強調蘋果保護用戶隱私初衷,將所有資料儲存在手機,相關運算皆在本地完成,有助於降低資料洩露風險。

應用程式開發人員透過蘋果 Core ML 使用神經引擎,透過 Core ML 即插即用技術,加上 AI 演算法(如圖像辨識等)。由於核心 ML 功能可透過神經引擎以更快地處理相關任務,大幅降低發送至雲端數據進行圖像處理等,進而提高性能,降低耗電。

蘋果強化 AI 應用生態圈,打造專屬硬體、軟體和平台

2017 年蘋果推出 iPhone X 採用臉部辨識技術,做到流暢用戶體驗,透過 AI 功能,讓智慧型手機執行各種任務,提供即時翻譯,處理自然語言,協助用戶透過智慧辨識拍攝更好照片,透過分析用戶行為模式,裝置做出決策並執行任務,其中語音助理將分析和學習用戶行為,進而提供用戶不同需求,提升和裝置間互動。

蘋果 A11 仿生(Bionic)晶片於 2017 年 9 月發表,首先搭載於 iPhone 8、iPhone 8 Plus 及 iPhone X 三款智慧型手機,A11 Bionic 晶片強調用於使用機器學習和深度學習任務,包括 AR 物體偵測、臉部辨識、Animoji 臉部追蹤等任務都依賴 AI 晶片,採用雙核設計,每秒可達成高達 6,000 億次操作之即時操作處理,專為特定機器學習演算法而設計。隨著新款蘋果手機在 2018 年 9 月正式發表,A12 晶片功率將比 A11 更高效。

▲ A12 處理器發表重點。(Source:蘋果)

(首圖來源:蘋果

延伸閱讀: