全球科技巨頭爭相製造晶片,AI 晶片大戰即將開打?

作者 | 發布日期 2018 年 04 月 25 日 8:15 | 分類 AI 人工智慧 , 晶片 , 零組件 line share follow us in feedly line share
全球科技巨頭爭相製造晶片,AI 晶片大戰即將開打?


上週,中國科技巨頭阿里巴巴也宣布正在研發 AI 晶片──Ali-NPU,之前美國科技巨頭 Google、蘋果、微軟、Facebook 也紛紛開始研發 AI 晶片。Google 的 TPU 已升級到第二代,這是否意味著 AI 晶片戰即將開打?科技巨頭製造晶片背後的目的有何不同?

科技巨頭紛紛造「芯」
深度學習運算要求高,Google TPU 已升級到第二代

從發表的產品來看,Google 的 AI 晶片在各大科技巨頭中稍微領先。據了解,2011 年 Google 開始認真考慮使用深度學習網路,這些網路的運算要求使計算資源變得緊張。更具體來說,Google 計算發現,如果每位用戶每天使用 3 分鐘 Google 提供的利用深度學習語音辨識模型的語音搜尋服務,就必須把現有資料中心擴大兩倍。Google 需要更強大、更高效的處理晶片,但已有的 CPU 和 GPU 都不能滿足需求,因此 Google 決定自己研發更高效的晶片。

2016 年 5 月 Google I/O 大會,Google 首次公布自行設計的 TPU,並稱在 Google 資料中心已使用了一年。發表一年後,關於 Google 機器學習客製晶片的神祕面紗才最終揭開,Google 資深硬體工程師 Norman Jouppi 刊文指出,Google TPU 處理速度要比 GPU 和 CPU 快 15~30 倍(和 TPU 對比的是英特爾 Haswell CPU 及 Nvidia Tesla K80 GPU),效能上 TPU 更提升了 30~80 倍。

2017 年 Google I/O 大會,Google 宣布正式推出第二代 TPU 處理器,第二代 TPU 處理器加深人工智慧在學習和推理的能力,據 Google 內部測試,第二代 TPU 晶片針對機器學習的訓練速度比目前市場上的 GPU 節省一半時間。

2018 年,Google 傳奇晶片工程師 Jeff Dean 連發了十條 Twitter 宣布 Google TPU 首次對外全面開放,第三方廠商和開發者可以每小時 6.5 美元來使用它,但需要先填表申請。

外界認為這意味著 AI 晶片和公有雲端市場將迎來新的變革。

滿足 iPhone 應用需求,A11 Bionic 加入 NPU

身為手機巨頭,蘋果首款人工智慧晶片是 A11 Bionic。蘋果 2017 年秋季新品發表會,A11 Bionic 隨 iPhone X 一起亮相。A11 除了在 CPU、GPU、ISP 方面提升,還首次搭載機器學習的硬體專用「神經網路引擎」(neural engine),採用雙核設計,每秒運算次數最高可達 6,000 億次,相當於 0.6TFlops,以幫助加速人工智慧任務,即專門針對 Face ID、Animoji 和 AR 等應用程式的 ASIC。

有了神經網路引擎,蘋果高級副總裁 Phil Schiller 曾表示,基於 ASIC 的深度學習達成高準確率,還能比基於通用晶片的方案減少功耗。不過蘋果並未披露這款神經網路引擎的功耗、實測性能,不過據 GeekBench 跑分數據,單核和多核跑分均超過驍龍 835。

發表會後蘋果 IC 設計團隊總監、硬體科技資深副總裁 Johny Srouji 表示,蘋果著手架構晶片一般從 3 年前就開始,這意味著 A11 Bionic 大概在 2014 年就進行開發工作了。

微軟為下一代 HoloLens 研發 AI 晶片

2017 年 7 月,微軟在夏威夷舉辦的 CVPR 大會公布正為 HoloLens 開發新的 AI 晶片。2017 年 10 月,微軟設備部門全球副總裁 Panos Panay 接受 CNBC 採訪時,也確認了微軟正為下一代 HoloLens MR 頭戴設備研發 AI 晶片,並表示微軟不僅擁有一支專注 IC 設計的團隊,且還與晶片製造商及其他合作夥伴共同開發。

據悉,HoloLens 是目前全球第一台能辨識環境、在空間中顯示 3D 圖像的 MR 設備,支援簡單的 3D 手勢互動,但 HoloLens 還缺乏對環境的深度理解,AI 晶片的加入將提升這能力,為其提供額外的語音和圖像辨識等複雜處理功能,支援更多手勢互動無法做到的任務。

不過,微軟 AI 晶片也將用在其他設備,還會授權第三方廠商。

亞馬遜為 Echo 訂製 AI 晶片

2018 年 2 月,透露消息一向較可靠的外媒 The Information 發表文章,援引知情人士消息稱,亞馬遜已為旗下 Echo 智慧喇叭及其他搭載亞馬遜虛擬助手 Alexa 的硬體產品,開發專用的 AI 晶片。

The Information 還表示,亞馬遜的 AI 晶片開發起自兩年前,主要手段就是招聘和收購,據稱已擁有近 450 名晶片專業員工。2015 年亞馬遜以 3.5 億美元價格,收購了一家名為 Annapurna Labs 的以色列公司,該公司就是一家不為人知的晶片公司。當然亞馬遜對這起收購諱莫如深,然而 2016 年 Annapurna Labs 表示,正在開發一系列名為 Alpine 的晶片,針對存儲器、Wi-Fi 路由器、智慧家居、串流媒體等設備類型。據那位知情人士的說法,目前為亞馬遜開發 AI 晶片的就是 Annapurna Labs,不過亞馬遜方面拒絕評論。

亞馬遜研發 AI 晶片的目的也很明確,Echo 喇叭的智慧語音助理需要靠雲端完成,AI 晶片可達到部分數據在本地處理,能夠一定程度降低設備對雲端指令的依賴,進而大幅度加快設備的反應速度。亞馬遜希望在智慧家居硬體市場和針對消費者的人工智慧產品領域保持競爭力。

Facebook 正組建 AI 晶片團隊

2018 年 4 月,從 Facebook 在官網發表的招聘訊息看,Facebook 正在組建一個新團隊設計晶片。從 Facebook 網站可以看到,總部加州門洛公園正在招聘 ASIC & FPGA 設計工程師,招聘職位屬於基礎建設(infrastructure)範疇,應聘者需要有架構和設計半定制和全定制 ASIC 的專業知識,與軟體和系統工程師合作,了解當前硬體的侷限性,並利用專業知識打造針對 AI / ML,壓縮、影片解碼等多種應用的客製解決方案。除了設計工程師,Facebook 也在招聘負責管理 ASIC 開發的經理。

不過 Facbook 拒絕發表評論,目前也尚不清楚 Facebook 會將晶片用於哪些應用,但從招聘可看出其開發晶片的計畫還處於早期階段。

外媒認為 Facbook 自主研發 AI 晶片的主要目的可能是想降低對 NVIDIA、高通、英特爾等晶片廠商的依賴,當然也可能為 Facebook 的 Oculus 虛擬實境頭戴設備而研發。

阿里自研 Ali-NPU,提升雲端計算運算效率

除了美國科技巨頭,上週阿里巴巴也宣布達摩院正在研發一款名為 Ali-NPU 的神經網路晶片,按照設計,Ali-NPU 性能將是現在市面主流 CPU、GPU 架構 AI 晶片的 10 倍,但製造成本和功耗僅一半,性價比超 40 倍。

據悉,Ali-NPU 為解決圖像、影片辨識、雲端計算等商業場景的 AI 推理運算問題,提升運算效率、降低成本。未來,Ali-NPU 能力也可以透過阿里雲輸出計算能力以賦能各行各業。

阿里巴巴基礎設施事業群首席架構師高山淵表示,阿里巴巴 2017 年成立達摩院,宣布投入 1,000 億做技術研發。實質上遠在達摩院成立之前,阿里就已投入 AI 晶片領域,目前研發已進入較深水域的階段。

據了解,阿里研究院還在全球設辦事處,包括微軟總部附近的華盛頓州柏衛。2017 年,阿里巴巴矽谷辦公室聘請前高通員工 Han Liang 為「人工智慧晶片架構師」;同時,阿里還在為該辦公室招聘更多人才。

你我都有晶片,AI 晶片戰來了嗎?

不難發現,Google 的 TPU 已對外開放,微軟表示其 AI 晶片也會授權第三方使用,阿里也希望 Ali-NPU 賦能各行各業。雖然亞馬遜和 Facebook 情況暫不明朗,但除了蘋果,應該都希望開放自家 AI 晶片。

至於自研 AI 晶片目的,認為一方面在晶片發展速度變慢的背景下,透過 CPU、GPU 已不能滿足科技巨頭的需求,為了擺脫對晶片巨頭的依賴,紛紛開始自研晶片。其次,針對不同 AI 應用,客製晶片的性能明顯高於通用晶片,因此自主研發 FPGA 或 ASIC 成了好選擇。

不過,除了紛紛開始自研 AI 晶片的科技巨頭,英特爾、高通、輝達、AMD、賽靈思等在各自領域有絕對優勢的傳統晶片巨頭也都有自家 AI 晶片,其中輝達 GPU 廣泛應用於 Google 和 Facbook 等多家公司的資料中心。

那麼,科技巨頭紛紛入局,是否意味著 AI 晶片戰即將開打?未來還有哪些巨頭加入爭奪戰?巨頭都有晶片的情況下,誰受到的影響最大?

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)

延伸閱讀: