MIT 開發人工智慧視覺分析系統,可掌握首次接觸的物件

作者 | 發布日期 2018 年 09 月 11 日 13:35 | 分類 AI 人工智慧 , 機器人 , 軟體、系統 line share follow us in feedly line share
MIT 開發人工智慧視覺分析系統,可掌握首次接觸的物件


目前即使是先進的人工智慧技術,都需要預先為特定應用設計才可處理所需數據。最近 MIT 開發一個系統,可透過影像分析,對首次接觸的物件也能使用機器手臂自動理解和處理。

來自 MTE 電腦科學及人工智慧實驗室(CSAIL)的研究人員最近公開一份研究報告,講述他們開發的人工智慧視覺分析系統,名為 Dense Object Nets,讓機器手臂透過視覺系統理解和處理初次接觸的物件。研究人員表示,現有技術對物件未能多角度辨認,例如看見一個杯子,如果以不同角度擺放,會無法握住手把。新技術採用自我監控的深層神經網路,面對新的物件時,可自動生成描述數據,掌握物件的立體形狀。

測試中,使用此技術的機器手臂可在一堆帽子中,成功撿起特定圖片的帽子,以及利用毛毛蟲公仔的右耳來抓住公仔,證明辨認能力極高,也可以清楚分辨左右。研究人員表示,這個系統支援堅硬的物件和柔軟可變形的物件,未來在工業也有不少應用的地方,例如貨品分類等。未來他們會繼續開發更深入理解物件的技術。類似科技目前是不少研究計畫的目標,之前有研究開發出可自行分析零件並組裝 IKEA 家具的系統。有了這些更聰明的系統,未來應用人工智慧的門檻就可進一步降低了。

(本文由 Unwire Pro 授權轉載;首圖來源:MIT