英特爾宣佈第一個商用神經學習晶片出來,計畫 2019 年推出

作者 | 發布日期 2018 年 05 月 25 日 15:30 | 分類 AI 人工智慧 follow us in feedly

英特爾看到 Nvidia 在 AI 領域大放異彩,也想要用手上晶片弄機器學習,用一堆 Atom 晶片組成 Xeon Phi 架構,但是看來效果沒想像中好。英特爾在 AI 開發者大會上發佈第一款機器學習晶片 Nervana NNP-L1000,打算用併購的技術與 Nvidia 一較高下。



對於英特爾來說積極在 AI 佈局相當重要,而從先前併購取得的技術當中,就屬 Nervana 的神經網路晶片,最被看好能在 AI 時代有發展潛力,而且能跟 Nvidia 競爭了。

英特爾發佈的文章指出 Nervana NNP-L1000 的性能:

一般性質的距陣對距陣乘法 (General Matrix to Matrix Multiplication, GEMM) 運算,使用 A(1536, 2048) 和 B(2048, 1536) 距陣大小,能達成單一晶片下超過 96.4% 的運算資源運用,這代表實際上有 38 TOPS/s 的單一晶片效能。 多晶片分散式 GEMM 運算則能支援模式平行訓練,能夠達到接近線性運算程度,以及 A(6144, 2048) 和 B(2048, 1536) 距陣下,96.2% 規模效能 – 具備串接多個神經網路運算,釋放其他架構下記憶體的限制。

我們量測單向晶片對晶片的理論頻寬效能,發現低於 790ns的延遲狀況,而且我們也相當興奮能套用上述結果到 2.4TB/s 的高速頻寬上面,具有同樣的雙向低延遲性。

這一切都是用低於 210 瓦的功耗,單一一片晶片就達成了,而這不過是早期合作伙伴回報的 Nervana NNP (Lake Crest) 原型晶片的數據。

▲ 英特爾人員在 COMPUTEX 之前的媒體活動,宣佈在 COMPUTEX 展覽重點。(Source:科技新報)

而對開發者來說,英特爾投入資源在每一項可能在 AI 有發展的技術上面。這次宣佈 Nervana NNP-L1000 晶片,開發者不必分神在每一項英特爾發佈的 AI 相關技術。

▲ 英特爾台灣分公司總經理陳立生介紹用在視覺辨識的 openVINO Toolkit。(Source:科技新報)

英特爾近年來積極併購公司,想要進入 AI 市場,避免與 Nvidia 的差距越拉越大。如買了 Altera 取得 field programmable gate arrays (FPGAs),買了 MobilEye 取得自駕車晶片,以及買了 Nervana 取得他們手上神經網路晶片技術。

英特爾已經提供 Facebook Nervana NNP-L1000 晶片,用在 Facebook 的 AI 專案上面,而且看來數據表現上面很亮眼。期待英特爾在 2019 年正式推出 Nervana NNP-L1000 晶片 ,會在 AI 市場上,除了 Nvidia GPU 的方案,新的解決方案。

延伸閱讀

(首圖來源:英特爾)