用模擬圖片幫自動駕駛汽車訓練深度神經網路,這方法可靠嗎?

作者 | 發布日期 2017 年 06 月 13 日 17:45 | 分類 AI 人工智慧 , Big Data , 數位內容 follow us in feedly

想獲得安全可靠的道路行駛能力,自動駕駛汽車必須對周圍環境有全景式的了解。它不但需要認出周邊呼嘯而過的轎車、卡車、摩托車,同時還要看到慢吞吞的自行車和行人。



此外,交通訊號燈、路牌和路上的障礙物也無法放過。不過,這還不是最考驗自駕車的事,讓各家公司花費大量時間和資源搜集資料的各種天氣和光照條件,才是自動駕駛能否真正上路的最高門檻。畢竟如果無法窮盡每種可能性,誰也不敢保證上路的自駕車不會惹出亂子。

一般來說,想讓自駕車實現眼觀四面、耳聽八方,研究人員必須標記大量資料,而這些標記過的資料將成為機器學習算法的養份。

標記資料可不是輕鬆的工作,每家廠商都會派成百上千的工作人員處理車輛拍攝的照片或影片,他們需要用方框圈出旁邊的車輛、路標等物體,同時還得貼上相應的標籤。令工作人員絕望的是,這個標記資料的過程需要一遍又一遍的重複。

密西根大學的研究人員想出更好的解決方案:在模擬中完成整個過程。對自己的想法,研究人員也是底氣十足,因為他們已證明這種方法比人工標記真實資料要有效得多。

不過,機器人專家並不看好模擬法,因為模擬事實上是簡化版的現實世界,在模擬中取得成功並不代表在現實世界中能百分之百安全。

密西根大學研究人員並不服輸,上週在新加坡舉辦的 IEEE 機器人與自動化國際會議上,他們就找來遊戲大作《俠盜獵車手 5》,嘗試透過該遊戲證明虛擬世界也能訓練深度學習系統辨識物體。這種方法靠譜嗎?

▲ 《俠盜獵車手 5》中用於眼睛辨識的圖片。

透過模擬的方式完成訓練其實一舉三得:

首先,速度大幅提升,而且與真車在路上採集資料相比費用少多了。

其次,在模擬中資料標記就變現成的,畢竟遊戲程式對畫面出現的物體屬性非常清楚。

最後,在模擬環境中你可以設定任何刁鑽路況或天氣。在加州路上測試,你會發現這裡總是陽光明媚,根本沒什麼挑戰。

此外,在模擬環境中你甚至可以為同一路段設定不同的天氣或路況,實現事半功倍。

▲ 在同一路段模擬不同的天氣。

為了偵測虛擬世界中的訓練效果,研究人員在遊戲中生成三個模擬資料集,分別包含 1 萬、5 萬和 20 萬張不同的遊戲圖片。

隨後,深度學習目標探測系統開始以這些資料集為基礎進行訓練。當然,研究人員還準備另一個實車拍攝的資料集,名為 Cityscapes,包含 3 千張經過手動標記的圖片,同樣的深度學習系統也會以該資料集為基礎訓練。

訓練完成後,兩套系統需對名為 KITTI(也是實車實拍,但與 Cityscapes 不同)的資料 7,500 張圖片進行眼睛辨識測試。

結果顯示,在模擬環境中訓練出來的深度神經網路辨識效果更好:用 5 萬和 20 萬張圖片訓練出來的深度神經網路表現要好過 3 千張資料集。研究人員稱,單張模擬圖片價值並不高,但如果數量夠多,效果就會非常棒。

確實,單張模擬圖片的訓練效果不如單張實拍圖片,畢竟現實世界中的光源、色彩和材質變化是電腦模擬無法比擬的,因此模擬圖片只能以量取勝。

不過,只要有足夠的計算能力,我們就能生成超多模擬圖片,最重要的是這些圖片不再需要人為標記了。

▲ 模擬圖片(上)中的誤報明顯更少。

除了以上優勢,在虛擬世界訓練出來的神經網路在辨識較遠和模糊車輛的能力上也更勝一籌。同時,這種方式也能減少誤報。也許這種優勢也是拜模擬圖片的巨量所賜,包含的資料更寬泛,能為訓練提供更加多樣化匯入。

當然,用模擬圖片訓練神經網路也有缺陷:首先,虛擬世界不同於現實世界,一些難以預測的情況模擬不出來,而這些情況是自動駕駛最大的安全殺手。

不過,雖然我們無法靠《俠盜獵車手 5》解決所有問題,但密西根大學的研究人員確實指了條明路,能大大降低各家廠商的成本,提升訓練效率。

(本文由 雷鋒網 授權轉載;首圖來源:VOLVO)