黃仁勳 : GPU 自主運算時代來臨,深度學習將延續摩爾定律

作者 | 發布日期 2017 年 10 月 26 日 17:50 | 分類 AI 人工智慧 , GPU , 手機 follow us in feedly

圖形晶片大廠 NVIDIA(輝達)於 26 日在台北舉行的 GPU 技術大會(GTC Taiwan),創辦人暨執行長黃仁勳發表主題演講時表示,全球 AI 深度學習運算的興起之下,人工神經網路的運用突顯出 GPU 運算的特性。而且,藉由深度學習運算能夠延續遲緩成長多年的摩爾定律持續演進,並且成為目前人工智慧技術主流演算方式。




2017 年 NVIDIA GTC Taiwan 訂出「人工智慧的多元應用」、「人工智慧應用於工業生產」與「人工智慧與產業發展」三大大會主題,且邀請產官學界講師來分享藉 GPU 運算,協助各領域產業升級;透過人工智慧應用,達成產業數位轉型的目標。黃仁勳指出,當前一般的電腦運算依然需要 CPU 進行,不過,大量資料分析的工作上,藉助 GPU 運算能力已成為趨勢。當前的人工智慧技術主要以仰賴 CPU 與 GPU 分工合作,為運算架構執行工作。

黃仁勳強調,過去 5 年內,投資人工智慧新創產業已成長 10 倍,總產值達 66 億美元。在此同時,有關深度學習的論文發表,也在過去 3 年成長 10 倍,超過 3,000 篇論文提出,可見人工學習與深度學習的議題深受重視。於是,NVIDIA 在 GTC 2017 提出的 GPU Cloud 服務,可讓企業、新創公司藉由雲端協圖工作的方式,得到更強大的運算能力,藉此達成各種深度學習的需求。其中包括人工智慧模式的建立、電腦視覺應用、自動駕駛技術的發展,以及面對越來越多物聯網使用需求等。

另外,藉由深度學習模式,目前可透過 GPU 加速應用,來達成 3D 影像即時自然光影追跡、臉部表情與口語同步、動畫人物動作的自我表現、測量影像中的物件相對距離,或是讓機器手臂判斷與移動物件等技術。面對這些未來的需求,NVIDIA 也宣布推出學習模型加速器 TensorRT 3,使深度學習效率大幅提升,進而節省運算設備成本。

黃仁勳進一步表示,藉由 TensorRT 3 速器,可使原本需要 160 組 CPU,每秒分析 4.5 萬張照片的運算需求,簡略到只要配置 8 張 Tesla V100 的單組 NVIDIA HGX GPU 電腦,即可達成相同運算效能。而且,僅需原本四分之一體積、二十分之一電力損耗,以及原本六分之一左右的成本支出就可建構出這樣的運算能量。「這些節省的成本就是金錢,這對企業來說非常重要!」黃仁勳表示。

最後,黃仁勳表示,過去用在 CPU 製程的摩爾定律已到尾聲,電晶體雖然每年持續增長 50%,但 CPU 效能成長僅 10%,使 CPU 不可能再成長。透過 GPU 運算的深度學習將是另一種解決方案,NVIDIA 的 GPU 是產業專用加速器,能補足 CPU 大量運算上的不足。NVIDIA 也為自主運算時代打造一系列平台架構,包括 Jetson 超級電腦、JetPack 開發人員套件、DIGITS、Issac 機器人虛擬實驗室與深度學習單位等,以滿足當前自主機器的世代即將來臨的需求。

(首圖來源:科技新報攝)