發表新一代 NNP 晶片外,英特爾 AI 軟體和應用更透露其 AI 野心

作者 | 發布日期 2018 年 05 月 25 日 16:45 | 分類 AI 人工智慧 , GPU , 晶片 line share follow us in feedly line share
發表新一代 NNP 晶片外,英特爾 AI 軟體和應用更透露其 AI 野心


整個 5 月,各大巨頭舉辦各種開發者大會、人工智慧大會,倒是給了我們一下子看完各大巨頭人工智慧布局的機會。

美國時間 5 月 23 日,會議上,英特爾副總裁、AI 事業部(AIPG)負責人 Naveen Rao 介紹了英特爾 AI 的最新進展:英特爾 Xeon 處理器的性能有了進一步的提升,發表了新一代專為機器學習設計的神經網路處理器(NNP)晶片──Nervana NNP-L1000(Spring Crest);介紹了 nGRAPH 平台、BigDL 大數據開源平台、OpenVINO 等開源軟體工具;展示了用 Movidius 神經元計算棒來進行 AI 作曲。

新一代 NNP 晶片

英特爾在人工智慧上的布局很清楚,近一年來,其反覆提到的「英特爾人工智慧全棧解決方案」揭示出其 AI 基礎架構。

英特爾人工智慧全棧式解決方案是一個完整的產品組合,包括 Xeon 可擴展處理器、英特爾 Nervana 神經網路處理器和 FPGA、網路以及儲存技術等;針對深度學習 / 機器學習而最佳化的基於英特爾架構的數學函數庫(Intel MKL)以及數據分析加速庫(Intel DAAL)等;支援和最佳化開源深度學習框架如 Spark、Caffe、Theano 以及 Neon 等;構建以英特爾 Movidius 和 Saffron 為代表的平台以推動前後端協同人工智慧發展。

在會議上,Naveen Rao 討論的重要更新之一是「英特爾 Xeon 可擴展處理器」的最佳化。與前幾代相比,新一代的處理器在訓練和推理方面都有顯著的性能提升,這對於許多希望利用現有基礎架構的公司來說是有益的。

隨後,Naveen Rao 介紹了全新一代 NNP 系列晶片。做為曾經不可撼動的晶片巨人,英特爾在 AI 時代卻面臨諸多挑戰。隨著像 Nvidia 和 ARM 這樣的公司贏得了圖像處理單元(GPU)的聲譽,且 Google 也已經設計出針對 AI 的專用晶片,英特爾的通用 CPU 晶片顯然落後了。

2016 年,英特爾購併專注於深度學習專用晶片的加州創企 Nervana Systems,Nervana 首席執行長兼聯合創始人 Rao 加入英特爾,短短幾個月後,Rao 就以火箭般的速度晉升為英特爾人工智慧事業部總負責人。可以看出,英特爾重金投入 AI 晶片,且將其做為發展人工智慧的核心.

2017 年 10 月,英特爾曾介紹專為機器學習設計的神經網路處理器(NNP)系列晶片,被命名為 Lake Crest。Lake Crest 可以加速多種神經網路演算法框架,比如 Google 的 TensorFlow、Nervana 的 Neon、Facebook 的 Caffe 等。英特爾稱 Lake Crest 能夠比 GPU 更快、功耗更低、性能更好。但當時,英特爾只將 NNP 晶片供應給一小部分英特爾合作夥伴,計劃在 2017 年年底前開始出貨。

在本次的英特爾 AI 開發者大會上,Naveen Rao 介紹了新一代的 NNP 晶片 Nervana NNP-L1000(Spring Crest),是 Lake Crest 發表 7 個月後的全面更新,性能比上一代產品提升了 3-4 倍。Rao 介紹到,Spring Crest 會有多項更新,其也將是英特爾第一款商業 NNP 晶片,將不只是提供給小部分合作夥伴,將在 2019 年發貨。

Naveen Rao 談到,在英特爾 Nervana NNP-L1000 中,他們還將支援 bfloat16,這是一種業界廣泛用於神經網路的數位格式。隨著時間的推移,英特爾將在我們的 AI 產品線上擴展 bfloat16 支援,包括英特爾 Xeon 處理器和英特爾 FPGA。

而 Google 在 AI 晶片上的速度似乎已經超越英特爾。2017 年 Google I/O 大會上,Google 就宣布正式推出第二代 TPU 處理器,第二代 TPU 處理器加深了人工智慧在學習和推理的能力,據 Google 的內部測試,第二代 TPU 晶片針對機器學習的訓練速度,比目前市場上的 GPU 節省一半時間。2018 年,Google 傳奇晶片工程師 Jeff Dean 連發了十條 Twitter,宣布 Google TPU 首次對外全面開放,第三方廠商和開發者可以每小時花費 6.5 美元來使用它,但需要先行填表申請。外界認為這意味著 AI 晶片和公有雲市場將迎來新的變革。看來,英特爾的 NNP 系列與 Google 的 TPU 系列是直接對標的產品。

三大開源軟體工具

雖然處理器和晶片是英特爾人工智慧布局的核心,但是從本次大會來看,英特爾也將更多目光放在了扶持開發者身上。

Naveen Rao 談到,「我們認識到,單靠英特爾無法實現人工智慧的全部願景。相反地,我們需要聯合開發者、學術界、軟體生態方共同來解決這些問題。今天,我很高興看到開發人員加入我們的示範、研究和實踐培訓。」

大會上,英特爾和合作夥伴介紹了 BigDL 大數據開源平台、OpenVINO、nGRAPH 平台等開源軟體工具。

BigDL 是一款基於 Apache Spark 的分布式深度學習框架,它可以無縫的直接執行在現有的 Apache Spark 和 Hadoop 集群之上。

據了解,英特爾與百度也展開了合作,百度雲在即將發表的數據分析平台中,將整合 BigDL 最新版本。未來英特爾還將聯合百度雲智​​學院推出完整的「數據分析 + BigDL」培訓課程。

OpenVINO 這一套新的開源軟體工具則主要用於視覺應用與神經網路最佳化,可以讓開發者更簡單地在邊緣設備上部署視覺計算和深度學習能力。

nGRAPH 則是面向開發者的深度神經網路模型開源編譯器,可以直接支援 TensorFlow / MXNet 以及 Neon,還可以透過 ONNX 支援 CNTK、PyTorch、Caffe2。

AI 編曲與 AI 圖像渲染

除了基層技術和軟體框架之外,英特爾還展示了 AI 多種場景應用。

首先是 AI 譜曲。英特爾在現場展示人類演奏者和 AI 配合起來作曲,演奏者輸入一段音符,AI 可以配合做出相同風格的下一段樂曲,AI 還可以用不同的樂器來配合,例如吉他配合鍵盤。從技術上來看,這需要透過深度學習從大量的資料庫中訓練,這樣的訓練需要很高的運算。

而英特爾實現的方式卻很簡單,僅用了一個隨身碟大小的 Movidius 神經元計算棒。去年 7 月英特爾就發表了這款產品,是業界首款基於 USB 超低功耗的嵌入式神經網路的開發工具,它可以工作在標準 USB 連接埠上。它內建了 Myriad2 的 VPU,可以把預先訓練好的 Caffe 或者 TensorFlow 的模型直接嵌入到神經網路,直接透過所謂的隨身碟對神經網路推理進行加速,進而將人工智慧應用部署在嵌入式以及邊緣環境上。據了解,海康威視的智慧相機、大疆的無人機也採用了英特爾 Movidius 技術。

另一個應用是利用英特爾 AI 進行 3D 動畫渲染。這是合作夥伴 ZIVA 公司基於英特爾 Xeon 處理器進行的研究,現場看來,渲染出的獅子十分逼真。

小結

據了解,英特爾近來採取不少措施,將自己的核心 AI 技術能力提供給企業和開發者,希望能有更多的合作夥伴一起打造軟體 + 硬體 + 生態全方位一體的人工智慧戰略。Naveen Rao 談到,「事實上,當我思考什麼能幫助我們加快向以人工智慧為導向的計算未來轉型時,我可以確信的是我們需要提供即廣泛又能達到企業規模的解決方案。」

在這週的微軟人工智慧大會上,微軟宣布推出 Project Brainwave 預覽版,以加速深度神經網路訓練和部署,該技術由英特爾的現場可編程門陣列(FPGA)和晶片 Stratix 10 提供支援。現在,英特爾的合作夥伴還有 Google、AWS、百度、Novartis、C3 IoT等。

(本文由 雷鋒網 授權轉載;首圖來源:Flickr/Thomas CC BY 2.0)