加州大學研究出新演算法:讓智慧汽車更精準檢測行人

作者 | 發布日期 2016 年 02 月 20 日 12:04 | 分類 汽車科技 , 自駕車 follow us in feedly
雷鋒網配圖

「目前中國 ADAS (高級駕駛輔助系統)領域的弱點是行人即時檢測,辨識率不到 70%,基本上還沒有進入可商用的階段。主要原因是技術門檻較高、演算法複雜。」創來科技創始人陳茂告訴雷鋒網,這家公司從事的是以汽車前裝為主的 ADAS 業務。



時至今日,汽車防碰撞系統和實驗性質的無人駕駛汽車,依靠的是雷達等感測器來檢測路上的行人。來自加州大學聖地牙哥分校的工程師,則研發一套基於視覺訊號進行即時探測的行人檢測系統,這套影像系統能使智慧汽車更精準檢測行人,成本也更便宜。

基於視覺的汽車安全系統在應用中仍然難以實現,一方面,透過電腦視覺演算法能快速檢測路上的行人,但是在區分行人和類似物體等複雜情況下,依然不夠成熟。另一方面,機器學習演算法(又稱深度神經網路)仿照人腦行為,研究人員能夠訓練出比之前方法更具辨別力、處理複雜的模式辨識,但是在即時的行人檢測上處理的效率太慢。

加州大學聖地牙哥分校電氣工程教授 Nuno Vasconcelos 和他團隊研究的新演算法,可以透過每秒 2 至 4 幀的速度,檢測行人的變化,有效避免行人突然停止移動而出現的緊急刹車或造成意外事故。

這套系統的關鍵在於——可以辨識更加複雜的路況。與其他類似的系統相比,該演算法的系統出錯率只有前者的一半,而且計算能力更加突出,能在遠處對行人的移動進行預判。研究小組計劃未來讓系統變得更加實用:不僅應用於車輛,還能應用於機器人、監視器等設備。

「在此之前,沒有演算法能夠在行人檢測的準確性和速度上做到優化和平衡,我們透過新演算法能得到更好的即時、準確的行人檢測結果。」Vasconcelos 說。

在早期的分析中,新演算法從相對簡單的演算法開始,過濾掉比如天空等非行人部分的圖像,然後進行更為成熟的深度學習和神經網路分析,最後透過該演算法來檢測物體的精度性和複雜性。

目前 Google 的無人駕駛汽車依靠的是雷達、雷射雷達等感測器來探測路上的行人。如果去掉成本高昂的設備如雷射雷達(成本 7 萬美元,約台幣 232 萬元  ),可使無人駕駛汽車成本下降,更早投入商用。

雷鋒網配圖

Google 在 2015 年便開始研發基於影片的行人監測系統,其採用的便是深度學習演算法,能在 0.25 秒內準確辨識路上的行人。在 Google 負責電腦視覺和機器學習的研究科學家 Anelia Angelova 表示,「視覺資訊相比雷達資料,可以給車描摹一個更廣闊的視域,但是整個處理過程要慢一些。」因此傳統深度神經網路技術在行人檢測場景的應用,一直比較緩慢。

陳茂告訴雷鋒網,行人辨識的實現方式有很多種,當前最流行的是深度學習。國外也有基於模式辨識的演算法,辨識率在 85% 左右,而深度學習的辨識率能做到 90% 以上,這也是當前各公司追捧它的原因。對於在使用過程中存在少量的誤報或漏報等檢測失效的情況,則是因為路況比如逆光刺眼、路面積水反光、車道標線模糊等原因造成的。

所以汽車廠商對於汽車安全特別謹慎和保守:任何技術都有其軟肋,沒有絕對完美的技術。「自行駕駛融合了很多互補的技術,當一種技術失靈時會啟用另外一種技術來檢測。汽車在技術上是有冗餘和備份的。這是因為一旦出現任何事故,車主只會找汽車廠商,而不會找供應商。」陳茂解釋。

(本文由 雷鋒網 授權轉載) 

發表迴響