MIT 新晶片提升 AI 神經網路運算速度 7 倍,能耗少 95% 可望延長裝置運作時間

作者 | 發布日期 2018 年 02 月 15 日 17:23 | 分類 AI 人工智慧 , 晶片 follow us in feedly

AI 的發展潛力被各方看好,但 AI 運算所需要消耗的大量能源,卻是發展背後的隱憂。MIT 日前公布新的晶片,比傳統 AI 晶片神經網路運算速度快 7 倍,能源消耗減少 95%,未來如果普及能將 AI 的能耐裝到一般消費裝置如手機上面。



臉部辨識、語音辨識這些我們習以為常的運用,背後都是神經網路運算的結果。一般來說神經網路很大,因此要放進手機往往只有簡化的架構,無法發揮神經網路的強大能耐,或是得把資料透過網路傳到資料中心處理。MIT 新的晶片能夠減化資料在晶片的記憶和運算模組傳遞的次數,運算效能增加 3~7 倍,進而加速速度,而且能耗減少 95%。

如果 MIT 的新晶片能普及,這些新晶片能驅動本地的神經網路,能放在家裡的智慧裝置。未來人類語音命令能在本地處理,而不必像現在的 Google Home 或是 Amazon Alexa,必須連網傳到資料中心處理,再回傳回來。

當 2017 年蘋果發表 A11 bionic 晶片,就具有 AI 能力,用 Face ID 辨識是否是手機的主人。未來類似的應用不會只在 iPhone 上面,或是 Face ID 這單一功能,而是更多裝置和應用。

(首圖來源:MIT)

關鍵字: , ,