Google 研發了一塊晶片,省下建資料中心的錢還推動機器學習的發展

作者 | 發布日期 2017 年 04 月 06 日 17:27 | 分類 AI 人工智慧 , Google , 晶片 follow us in feedly

Google 所提供的網路服務可能是地球上最大的電腦網路,這套網路擁有 15 個倉庫大小的資料中心,並分布在 4 塊大陸上。




你可能覺得這個網路已經夠強大,日常使用 Google 自家的各種服務完全沒有問題,但 Google 並不這麼認為,Google 的工程師們也不這麼想,他們擔心這套已經非常龐大的網路有一天會不堪重負。

為了省錢,自己做晶片

大約在 6 年前,Google 為其 Android 系統加入了新的語音辨識技術,也就是我們熟悉的 Google Now 和 Google Assistant。

而除了工作就是思考的 Google 工程師突然想到,如果世界上每個 Android 手機用戶每人每天使用 Google 的語音搜尋服務 3 分鐘,那麼所需要的資料中心大小至少是現在的兩倍之多,如果用戶更頻繁使用 Google 語音服務,那麼當前的資料中心將不堪負荷。

此外,Google 當時已經開始研究使用深度神經網路和複雜的數學系統來開發語音辨識服務,這使其語音服務可以透過分析大量數據,來學習一些特定的任務處理能力。而這種機器學習形式,不但重新發明了語音辨識,還促進了圖像辨識、機器翻譯、網路搜尋等技術的發展,但它對資料處理的能力要求非常嚴格。

(Source:Google

由於使用深度神經網路學習技術,Google 看到機器的辨識錯誤率下降了 25%,但是這種進步需要更強大的資料處理能力,也就是說,需要更多的資料中心。

資料中心不夠用,那就多建幾座囉?可是建這麼多資料中心是要花不少錢的,像 Google 這種財大氣粗的公司也不是不把錢當錢,精打細算過日子的理智心態也是有的。

因此 Google 並沒有豪擲千金將資料中心佔地面積翻倍,而是專門為執行深度神經網路研製自家的電腦晶片──Tensor Processing Unit,TPU。在 TOPS / Watt 測試中,TPU 的性能高於標準處理器 30 到 80 倍,這個測試結果非常可觀。

一顆晶片頂一座資料中心?

Google 在去年 5 月首次透露自家這款訂製處理器,但並沒有透露太多細節。現在,負責 TPU 晶片研發的 Norm Jouppi 和他的團隊發表了一篇文章,詳細說明了該計畫,並解釋了 TPU 的執行方式以及對一些特殊問題的解決方案。

Google 的 TPU 晶片僅用於執行神經網路服務,只在用戶使用 Android 手機啟用語音指令或搜尋指令時才會運行。由於神經網路擁有自主學習的能力,因此不用特意訓練它。但 Jouppi 說,TPU 除了能讓神經網路自主學習和高速運算外,最重要的是,Google 不需要為擔心數據運算能力不足而多建額外 15 個資料中心,這樣便節省了大量的成本。

外媒 Wired 認為,TPU 將為電腦晶片領域帶來重大轉變。由於 Google、Facebook、微軟等網路巨頭使用深度神經網路構建其服務的動作越來越多,他們都需要專門的晶片來訓練和執行這些 AI 模型。

但不同的是,Google 在構建自己的晶片,而很多公司還在使用 GPU 來解決深度神經網路和人工智慧的問題。

Google 自家晶片的出現,也為電腦晶片市場帶來衝擊。由於有自己的晶片,Google 不用再購買別家晶片,來適應自己的神經網路和人工智慧架構,而 Google 甚至有可能成為 TPU 晶片的供應商,因為像 Facebook、微軟和亞馬遜這類公司都是晶片的高級買主。大型的晶片製造商如英特爾等,也正在研發類似的處理器以適應新的市場需求。

適用於多種神經網路模型

此外,Google 這塊 TPU 晶片可用在當下任何一個深度神經網路中,包括從圖像辨識到辨識語音命令的神經網路等。用 Jouppi 的話說:

我們並不會因為別人造了新的神經網路架構而把我們這塊晶片當垃圾扔掉。

不過 Jouppi 也認為,TPU 還有進一步提高性能的空間。如果使用 NVIDIA K80 GPU 中存的 GDDR5 顯存,TPU 便可以提供比 Google 當前測試更好的性能。根據 Google 當前的測試發現,深度神經網路一些服務性能受內存頻寬的限制,而 GDDR5 則能解決這些問題。

Google 其實已經在兩年前就用到 TPU 晶片了,而 TPU 晶片除了用於圖像辨識和機器翻譯,最值得誇耀的事蹟,就是去年打敗南韓棋手李世乭的人工智慧 AlphaGo 了。

TPU 晶片的未來?現在看來,很明朗,而機器學習和人工智慧發展的步伐,或許會因此加快。

(本文由 愛范兒 授權轉載;首圖來源:Google)