Google 說 TPU 比 GPU 更厲害,Nvidia 便亮出 Tesla V100 予以顏色

作者 | 發布日期 2017 年 05 月 12 日 15:16 | 分類 AI 人工智慧 , Google , GPU line share follow us in feedly line share
Google 說 TPU 比 GPU 更厲害,Nvidia 便亮出 Tesla V100 予以顏色


上個月 Google 公布了關於 TPU 細節的論文,稱「TPU 處理速度比當前 GPU 和CPU 要快 15~30 倍」,引發科技圈熱議。Nvidia CEO 黃仁勳更親自撰文回擊,並貼出 Tesla P40 GPU 與 TPU 的性能對比圖,大有針鋒相對之勢。而在 10 日 GTC 大會上,Nvidia 又發表新一代 GPU Tesla V100。這場 ASIC 與 GPU 之爭愈發好看了!

人工智慧和機器學習對 Google 的重要性已經不言而喻,為了在人工智慧時代搶佔先機,這位科技巨人已經開始研發和製造自己的晶片。2016 年年度開發者大會上,Google 對外宣布了針對其特殊 AI 演算法優化的 TPU 晶片。據了解,如今已有數十種類似的客製化 AI 晶片陸續問世。這讓近年來在深度學習領域有支配性地位的晶片供應商 Nvidia 備感壓力。

為了反擊,Nvidia 也開始加強其新推的 GPU 晶片的客製化和專業性。

在週三舉行的 GTC 大會上,Nvidia 發表了基於其下一代圖形架構 Volta,針對伺服器市場的 GPU 新品 Tesla V100。該晶片擁有超過 210 億個晶體管和 5,120 個運算核心。但是對 AI 來說,最重要的是,Tesla V100 配備了 640 個 Tensor 核心,是專為運行深入學習網路中使用的數學運算設計的。據官方介紹,Tensor 內核為 Tesla V100 提供了高達 120 teraflops、驚人的深度學習能力。

相比前代 Pascal 架構,新晶片將深度學習訓練速度提升了 12 倍,深度學習推理速度也提升了 6 倍。新架構在運行深度學習應用方面的性能,相當於 100 個中央處理器(如 Intel 的中央處理器)。

為了使深度學習應用在其硬體上更加高效的執行,Nvidia 提供了很多軟體工具。它發表了一款針對深度學習框架 TensorFlow 和 Caffe 的編譯器──TensorRT,用於改進推理性能。Nvidia 表示,Tesla V100 的推理性能要比英特爾的 Skylake CPU 架構快 15~25 倍。

雖然 Nvidia 正努力讓其晶片更加適合深度學習,但競爭對手卻可能會指出,Nvidia 的最大缺陷在於,其 GPU 往往必須支援圖形生成功能。GPU 之所以設計出來,就是用於圖形生成。由於必須支援圖形生成功能,GPU 晶片增加了大量體積,這就意味著它在一定程度上要比專用晶片更低效。

Google 在最近的一篇部落格文章中聲稱,其 TPU 在推理性能上要比現代 GPU 和 CPU 快 15~30 倍,同時功耗還要低 30~80 倍(Nvidia 對此反駁,Google 拿 TPU 和舊的 GPU 比較)。事實上,這種對比並不完全公平。GPU 是通用型晶片,可執行繪圖運算工作,用途多元。TPU 則屬於 ASIC,也就是專為特定用途設計的特殊規格邏輯 IC,由於只執行單一工作,速度更快也在情理之中。TPU 和 GPU 之間除了性能較量,更多是 ASIC 和通用型晶片這兩種設計思路間的博弈。

除了 Nvidia 和 Google,另一大晶片巨擘 Intel 也加入這場棋局。不久前,Intel 以超過 4 億美元的價格收購 AI 晶片新創 Nervana,並聲稱將在 2020 年之前將深度學習訓練速度提升 100 倍。

Nvidia 表示,Tesla V100 是深度學習領域更專業化,並能與這些客製化晶片競爭的有力證據。Nvidia GPU 工程部高級副總裁 Jonah Alben 在談到晶片競賽時說:「當你考慮構成一款用於深度學習訓練的優秀晶片所有要素時,你會發現頻寬、輸入/輸出和數學運算能力都很重要。所有這些我們都是專家。只要我們用相同的筆刷作畫,就知道到底誰更強。」

雷鋒網認為,儘管 Google 在客製化 AI 晶片領域走在最前方,但 Nvidia 仍在未來很多年保持競爭力。Gartner 分析師馬克‧洪(Mark Hung)說,「目前為止,沒有任何一款 AI 晶片達到大規模出貨。儘管對 Nvidia 來說,潛在的危險始終存在,但在這些公司大規模出貨 AI 晶片前,並不會對 Nvidia 造成真正的威脅。」

這些即將到來的 AI 晶片與 Nvidia 之間的明爭暗鬥表明了一點,深度學習計算對更強計算能力的需求日益旺盛。幾年前 GPU 迎來大爆發,正是因為它將深度學習網路的訓練時間從幾個月縮短到幾天。早在 1950 年代就已經誕生的深度學習,由於有強大的計算能力做為後盾,此刻終於潛能爆發。但是隨著越來越多企業試圖將深度學習融入產品和服務,對更快的晶片需求將沒有止境。

Alben 說:「以我所見,人類需要無限量的深度計算能力。越接近無限越好。」

(本文由 雷鋒網 授權轉載,首圖來源:NVIDIA

延伸閱讀:

AI人工智慧新知管道

如何深入了解 AI 趨勢?快速收到第一手 A.I. 學習資訊與相關新聞?歡迎加入臉書社團「AI人工智慧基地