MIT 團隊開發出全新成像系統,讓自駕車在濃霧中也能「看見」路況

作者 | 發布日期 2018 年 03 月 26 日 7:00 | 分類 尖端科技 , 汽車科技 , 自駕車 follow us in feedly

對駕駛來說,除了糟糕的路況最討厭的莫過於惡劣的天氣。當濃霧出現時能見度降低,開車行為也就變得特別危險,這點對仰賴機器視覺的自駕車來說也相同。



為了讓自駕車未來變得更安全,麻省理工(MIT)團隊開發出一種全新的深度感測成像系統(Depth-sensing imaging system),最終能讓自駕車的視覺不會再受濃霧影響。

MIT News 報導指出,自駕系統的視覺多數都包含攝影鏡頭及感測器,並仰賴由可見光產生的圖像與影片來決策,這點與人類駕駛判斷周遭的方式相似,這也是為什麼霧對人或機器視覺都能造成同樣的阻礙。

為了解決濃霧造成問題,麻省理工研究人員 Guy Satat、Ramesh Raskar 和 Matthew Tancik 找到一個方法,讓基於雷射的成像系統即使在濃霧中也可以準確計算與物體的距離。

這類型成像系統主要是從攝影鏡頭射出短脈衝雷射,再借由計算反射時間來判斷與物體的距離。

當天氣晴朗時,雷射光的路徑清晰,這種判斷方式對測量距離非常準確,但碰到大霧時,由無數微小水滴組成的霧氣會將光線從各種方向散射出去,被打斷的雷射光最終會在不同時間回到鏡頭,也就讓基於反射時間判斷的方式無法準確。

團隊深入研究後發現,無論霧有多厚,散射後的雷射光反射時間總是呈現一種非常特定的分布模式,為此他們開發出一種新的演算法,能運用特定的運算濾波器(mathematical filters)來找出數據高峰,進而「看見」隱藏在霧中的實際物體位置。

在小房間進行的測試中,成像系統的可見度比人眼能看見的距離再遠 21 公分,這點距離雖然聽起來差異不大,但放大到現實生活的環境條件時,霧的濃度並不會像團隊在房間內人為創造的那麼厚,系統將能看到夠遠的物體,讓車輛有足夠時間反應並安全避開它們。

團隊預計將於 5 月在匹茲堡舉行的計算攝影國際會議(ICCP 2018)正式公佈詳細研究內容,相信這能使自駕車的視覺系統再度進化。

(首圖來源:Melanie Gonick / MIT