預測後方 3 秒內超車,交大首創自駕車智慧之眼

作者 | 發布日期 2019 年 06 月 12 日 15:00 | 分類 AI 人工智慧 , 自駕車 , 軟體、系統 follow us in feedly


交大教授郭峻因結合 AI 人工智慧與自駕車開發出「嵌入式 AI 物件辨識系統」,包括高效率的自動化標記,可偵測 200 公尺外車輛,還能預測後方車輛未來 3 秒內是否超車,目前已獲 28 家廠商合作。

AI 時代來臨,自駕車更是 AI 人工智慧技術的重要應用領域,預估 2025 年全球自駕車相關產值上看 420 億美元。科技部上午舉行「自駕車智慧之眼深耕八年有成,嵌入式 AI 物件辨識系統技術領先國際」研究成果發表記者會。

交通大學電子研究所教授郭峻因表示,團隊藉由分析影像實現自駕車進階駕駛輔助系統(ADAS),成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,產生大量 AI 人工智慧學習的資料庫,搭配團隊開發的即時軟體演算法,降低了 AI 電腦視覺所需的運算平台成本,且無需昂貴的 GPU(繪圖處理器)運算平台。

他說,AI 可替人類分析與辨識影像內的各式物件,但必須先有「工人智慧」,要有人去一一標記各種物件,建構足夠的資料庫。

而郭峻因團隊開發出全世界第一套快速視訊資料自動化標記工具(ezLabel 2.0),用來標記並提供 AI 學習的資料,標記效率超過目前現有手動資料標記工具達 10~15 倍以上,並獲得於 AUDI 奧迪汽車主辦的第一屆台灣 AUDI Innovation Award 兩項大獎,國內已有多家廠商試用。

郭峻因表示,團隊已經建置超過 1,500 萬筆適合台灣地區的自駕車影像資料庫,有助於開發適合台灣地區的 AI 自駕車物件辨識技術,今年預計要達到 3,000 萬筆資料。而台灣擁有國外相當缺乏的機車資料庫,他認為台灣要發展自駕車產業,掌握圖資是關鍵。

郭峻因團隊開發出最遠可偵測超過 200 公尺外車輛的嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2)4 倍,且準確度更高,適用於各種天候,非常適合自駕車應用。

此外,團隊還首創深度學習行為預測技術,開發全球首見可預測後方車輛(汽車或機車)3 秒內是否超車,當作車輛駕駛第三隻眼睛,守護行車安全。

郭峻因表示,團隊所產出的嵌入式 AI 自駕車快速資料標記工具、自駕車圖資、物件偵測與行為預測深度學習技術的產業應用潛力龐大,目前合作廠商已達 28 家,未來潛在的合作廠商包含 AI 晶片公司、車電系統公司與自駕車圖資公司等。

他說,嵌入式 AI 系統除了應用在自駕車,對於未來智慧城市、交通的應用非常廣,只要有照相攝影的地方,都可以導入,像大家常用的掃地機器人也有裝鏡頭辨識前方物體,他笑稱,「擁抱嵌入式 AI,才會發大財。」

(作者:劉麗榮;首圖左起科技部工程司徐碩鴻司長、科技部許有進次長、交通大學郭峻因教授;來源:科技部