不只是用看的,美大學研究團隊要教機器人用觸覺來認知世界

作者 | 發布日期 2017 年 06 月 30 日 8:15 | 分類 AI 人工智慧 , 尖端科技 , 機器人 follow us in feedly

許多研究人工智慧(AI)的企業都在透過深度學習來教會機器人辨識圖像,卡內基美隆大學(CMU)的研究團隊則選了另外一種方式,他們試著教導機器人透過觸摸來認知世界,就像嬰兒一樣。



TechCrunch 報導,在每天 8 小時實驗期間,這個名為「Baxter」的機器人只有一個任務要進行──從桌上隨機抓取物品,它的動作緩慢而笨拙,即使如此,這一個月期間也已經進行了 5 萬次的抓取動作,Baxter 正在透過觸覺反饋和嘗試錯誤來學習。

研究團隊在發表的論文中,解釋了他們如何透過讓機器人反覆接觸物品,來提升對物品的認知,「以嬰兒來說,他們透過用手推、戳物品、把東西放進嘴裡或扔出去來學會認知表徵,我們也希望達到這樣的目標,所以在 Baxter 的程式平台中建構了類似的模式,讓它們在桌面環境上戳、抓取並觀察物品。」

為了說明學習觸摸的重要性,研究室助理 Dhiraj Gandhi 用 1970 年代中期英國的一項實驗做為例子,當時研究人員對兩隻貓進行認知實驗,其中一隻就像平常一樣生活、與世界接觸,另一隻貓則只能夠觀看,不被允許接觸物品,最終只有被允許與環境互動的學會爬行,只能觀察的不能做出同樣舉動。

而在實驗中,Baxter 逐漸地展現出對物品認知的提升,當機器人認出熟悉的物品時,平板顯示螢幕上會露出「微笑」,並且抓取物品放入適合的籃子;如果對物品不熟悉,螢幕上則會露出「困惑」的表情──研究人員並不擔心,他們相信沒有什麼是另外 5 萬次抓取練習學習不了的。

這項研究改變了傳統的機器視覺學習模式,不同於以往系統透過已經輸入的標籤去判斷、尋找物品,Baxter 是透過觸摸來自我學習認知,Gandhi 解釋,過去圖像和標籤之間並沒有互動,在視覺系統中只有被動數據可以收集。

「我們想要的是與物品時可以獲得活動的數據,並透過這些學習對其他視覺任務有用的功能。」

Baxter 的系統中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺訊息發送到深層的神經網路,並在 ImageNet 中與圖像交叉參考。團隊在其中意外發現,收集的觸摸數據讓 Baxter 的辨識精準度,較其他只使用圖像辨識的機器人高出 10%,團隊認為這非常鼓舞人心。

儘管目前研究還處於初期階段,但團隊十分看好未來的發展,Gandhi 表示,他認為結合視覺與觸摸學習的機器人可以用於揀選分類,就像 ZenRobotics 開發的類型,未來能為垃圾進行分類回收,這在現實中是一個非常大的挑戰,「當然,我們目前還在嬰兒學步呢。」

(首圖來源:shutterstock)