蘋果並非晶片 AI 公司,但它的晶片和 AI 真的令人驚豔

作者 | 發布日期 2018 年 09 月 14 日 10:00 | 分類 AI 人工智慧 , Apple , iPhone line share follow us in feedly line share
蘋果並非晶片 AI 公司,但它的晶片和 AI 真的令人驚豔


蘋果在台灣時間 13 日凌晨發表 3 款全新 iPhone,除了外型、新功能以外,這篇文章帶你了解新手機的「內在」。

處理器

A12 Bionic 處理器驅動著最新一代 iPhone XS 和 XR,是蘋果秋季新品發表會的主角之一。

這場發表會有一大半篇幅都是蘋果對 A12 Bionic (以下簡稱 A12)的參數和能力大談特談。筆者甚至認為,這枚 SoC 對蘋果的重要性高於 iPhone 本身。

這塊晶片主要構成部分是 CPU、GPU 和一個神經網路協處理器 Neural Engine。CPU 為 6 核;GPU 為 4 核,性能比前代 A11 高了一半左右。

蘋果全球行銷高級副總裁菲利普·席勒(Philp Schiller)表示,A12 是全世界計算行業的第一塊 7 奈米處理器。

這是令人震驚的表述。因為科技從業者可能知道,晶片工業的領頭羊主要就是英特爾、輝達、AMD 和高通等公司,而這些公司正集體遇到天花板。

這個天花板就是摩爾定律。

摩爾定律來自英特爾的創辦者,形容計算工業的常態現象:因為製程提升,處理器每隔一段時間的性能也會提升,而成本會下降。

然而過去幾年,摩爾定律越來越難應驗。以英特爾──全球大部分電腦處理器的製造商──為例,製程革新速度愈發緩慢,10 奈米製程進展緩慢,導致其依賴的技術演進模式正在崩盤。

與電腦相對的是行動 SoC。高通是這個領域的領導者,進展還不錯,最新一代驍龍 845 處理器採用 10 奈米製程,也已進入幾款最新手機。然而高通遇到的問題是性能提升和製程進步之間的線性關係正在緩慢消退,這也是高通新一代處理器主要突出平台效應而非性能的原因。

誰也沒有想到,英特爾和高通與摩爾定律纏鬥同時,蘋果突然用去年的 A11 和今年的 A12 在晶片業狠狠刷了一下存在感。

席勒透露,採用 7 奈米製程的 A12 處理器,蘋果(和代工廠台積電一起)塞進了將近 70 億顆晶體管,讓 A12 成為蘋果乃至整個行動晶片業史上製造的最強大手機處理器──別忘了這家公司並不像高通那樣以晶片公司自居。

A12 的 6 核處理器仍然採用自家 Fusion 架構,分成 2 個高性能核心和 4 個低功耗核心,前台高資源和後台待機任務分別處理,總體功耗降低達近五成;4 核圖形處理器較前代性能也有很大提升。

不過蘋果晶片的真正大招,在於那塊 Neural Engine。

這是一塊 FPGA(Field-Programmable Gate Array 現場可程式化邏輯閘陣列),一種自定義能力強、適合客製化計算需求,在機器學習領域廣泛採用的積體電路。

和 A11 雙核相比,A12 的 Neural Engine 核數暴增到 8 顆,是為了:

1. 在本地處理神經網路任務,比如圖像辨識、物體追蹤、空間位置感應。

現場展示的籃球即時數據分析技術 Homecourt Shotscience,可即時監測球員的位置、姿態,球出手時的高度、角度和時機等諸多訊息。

2. A12 Neural Engine 第二個重要任務是為 CPU 和 GPU,以及兩個單元的不同核心之間分配任務,更高效處理任務,提高性能、降低功耗。

第二代 Neural Engine 的存在,不僅體現蘋果晶片設計的強大,更證明一件事:為了在裝置實現甚至創造新的用戶需求,讓 iPhone 比前一代更盡善盡美,蘋果願意深入晶片的層面。

而這和新 iPhone 的第二個重點有關。

人工智慧

整場發表會讓筆者留下深刻印象的點並不多,其中之一就是前面提到的籃球即時數據分析應用 Homecourt。

科技從業者可能知道,人工智慧是硬體和軟體的結合。想要有好效果,不僅要有高性能的計算硬體,也要有強大演算法和軟體支援。

搭配蘋果 CoreML 深度學習框架,新一代 iPhone 每秒可進行的神經網路計算超過 5 兆次。這意味著在某些特定範疇,最新一代 iPhone 已超越不久前業界頂尖的伺服器超級電腦。

當很多神經網路等級的任務可在本機計算,無需聯網,最大的意義在於解鎖很多新使用場景。比如發表會展示的新一代 iPhone 拍照的 Smart HDR 功能。

HDR 拍照就是在按下快門時,相機會拍下多張不同曝光的照片,將它們拼在一起,從高光到暗影的每處細節都呈現更清晰。iPhone XS 和 XR 相機引入的 Smart HDR 功能,利用這個邏輯,達成更好的效果。

首先,按下快門時相機會自動拍攝 4 張照片,利用 Neural Engine 結合 GPU 的計算能力選取最好的一張。蘋果稱之為零快門延時(Zero shutter lag)技術。

但過程並非如此簡單,再按下快門時,相機不僅留下 4 幀,還在另一個曝光等級拍攝複製幀,以保留高光細節;

以及另一幀高曝光,留下暗處細節,此謂 HDR。

最後,Neural Engine 會再次選取畫質最高的幾張,包括正片、高光、暗影,將其結合,達到 Smart HDR 效果:

最後得到的照片不一定和普通 HDR 或 HDR+ 照片高下立判,但要明白的是,這些功能並非過去的手機拍照處理器 / ISP 可做到,而需要 Neural Engine 和 CPU / GPU 配合。

你可以說蘋果殺雞焉用牛刀,但至少在拍照這件事他們是認真的。

同樣是拍照,新一代 iPhone 可做到更好的背景虛化(Bokeh) 效果。前代 iPhone X 剛發表時,很多用戶發現人像模式效果並不好,原因在於並非雙鏡頭,而是單鏡頭+電腦模擬背景虛化。

席勒表示,蘋果相機工程師利用市面頂級相機和鏡頭拍下的背景虛化效果,訓練 iPhone 相機、軟體以及 A12 Neural Engine,相信能取得更好的背景虛化效果──儘管這次仍是電腦模擬。

另一個例子是現場展示的多人同螢幕──不對,同空間聯機遊戲。這是一款擴增實境 3D 射擊遊戲,幾個玩家各自操作手機,在同一個空間射擊目標,最後比較分數。

這款遊戲利用蘋果 ARKit 2 擴增實境平台,結合 Neural Engine 驅動的圖像辨識和空間感知能力,至少在發表會現場效果令人歎服。

看完整場發表會,蘋果在 iPhone XS / XR 體現的人工智慧軟硬體能力,讓筆者留下的印象並不是有多強,而是在於整合度多緊密和自然。

因為究其根本,蘋果也不是一家人工智慧公司,業績保證需要銷售產品來支持。而產品給人帶來的體驗多完整,決定了用戶滿意度有多高。

(本文由 PingWest 授權轉載;圖片來源:蘋果

延伸閱讀: