百度、英特爾聯手打造新一代 Nervana NNP 晶片,效能提升 3~4 倍

作者 | 發布日期 2019 年 07 月 05 日 16:00 | 分類 AI 人工智慧 , 晶片 follow us in feedly


7 月 3 日舉行的百度 AI 開發者大會,發表鴻鵠晶片及多台智慧音箱新品,更宣布與華為麒麟合作,智慧小程式也進入新連線。

英特爾副總裁兼人工智慧產品事業部總經理 Naveen Rao 出席現場,宣布與百度於 AI 重磅合作──結合本身專業知識,共同打造用於訓練 AI 的 Nervana 神經網路處理器(NNP,Neural Network Processor)。

聯手開發強大的 AI 加速器

英特爾表示,這款與百度合作開發的處理器簡稱 NNP-T,代號為「Spring Crest」;意味著 AI 模型硬體發展進入「新階段」,因它可加速大規模分散式訓練;還為影像辨識最佳化,刪去標準的快取階層(cache hierarchy),晶載記憶體(on-chip memeory)直接由軟體管理。

據 VentureBeat 報導,NNP-T 有 24 個計算集群,32GB 的高頻寬記憶體(HBM2)和區域 SRAM,因此,即將推出的處理器在 AI 訓練方面比同類產品要強最多 10 倍,比英特爾首款 Nervana NNP 晶片 NNP-L 1000(代號 Lake Crest)效能強 3~4 倍(註:2016 年,英特爾收購人工智慧公司 Nervana,2017 年,英特爾推出專為機器學習設計的 Nervana NNP 系列晶片)。

英特爾也聲明,AI 並非單一工作負載,而是一種廣泛、強化所有手機或大型資料中心應用效能的強大能力;然而,不同應用對效能和功耗有不同要求,因此單一 AI 硬體無法滿足一切需求。

在 AI 方面,英特爾認為不僅要提供優越的硬體選擇,還要透過軟體最大化釋放硬體效能,幫助用戶順利執行 AI 應用,無論數據多麼複雜。而英特爾選擇與百度合作,能確保英特爾開發部門始終緊跟用戶對訓練硬體的最新需求。

Naveen Rao 表示:

未來幾年,人工智慧模型的複雜性會激增,對大規模深度學習計算的需求也會激增。英特爾和百度正專注於長達十年的合作,建立全新硬體,支援軟體協同設計,這將隨著不斷變幻的現實情況發展。我們稱之為 AI 2.0。

英特爾與百度是長期好夥伴

近年來,英特爾與百度已建立許多基於 AI 應用的解決方案。

自 2016 年英特爾就為百度 PaddlePaddle 深度學習框架最佳化 Xeon Scalable processor,今後,NNP-T 最佳化也將專注於 PaddlePaddle 應用,專注於神經網路的分散式訓練,以完成其他類別的 AI 應用。

Constellation 研究公司的首席分析師兼副總裁 Holger Mueller 表示:

處理器架構和平台需要最佳化才能發揮作用,無論目前還是即將推出的處理器,這解釋了英特爾與百度合作的重要性。

兩家公司探討整合百度 PaddlePaddle 和英特爾 nGraph DNN(Deep Nerual Network)編譯器,有了 nGraph 的助力,資料科學家只需編寫一次程式碼就可讓 DNN 模型在各平台有效執行,無需調整其他。

百度也藉助英特爾 Optane 資料中心級持久記憶體的高效能,向數百萬用戶提供個性化行動內容,並透過百度 AI 建議引擎獲得更高效的用戶體驗。

資料安全方面,百度和英特爾去年推出 MesaTEE,是基於英特爾 SGX (Software Guard Extension,軟體保護延伸技術)的 FaaS 計算框架;MesaTEE 使金融、自動駕駛和醫療等安全敏感服務能安全於遠端平台處理。

今年稍早,百度和英特爾還推出全新硬體產品 BIE-AI-BOX。這款產品融合百度智慧邊緣技術,連線鏡頭進行車內視訊監控和分析。

小結

儘管百度與英特爾長期保持緊密合作,但本次兩家公司聯手打造 AI 加速處理器也十分重要,因為即便硬體效能再強大,也需要軟體不斷磨合,才能最大化發揮 AI 的優勢。

總而言之,百度與英特爾各取所長,開發和最佳化這款加速處理器,不僅能把大規模神經網路的訓練步驟化繁為簡,還能一定程度加速 Naveen Rao 所說的 AI 2.0 到來。

(本文由 雷鋒網 授權轉載;首圖來源:英特爾

延伸閱讀: