這個長了眼睛的機械手,無需特殊程式設計就能抓 500 種東西

作者 | 發布日期 2017 年 05 月 09 日 9:12 | 分類 AI 人工智慧 , 機器人 follow us in feedly

工程師們常被抱怨設計出來的東西不能真正滿足用戶的需求,但是一個設計的改良需要一個循序漸進的過程,其實工程師也想要貼心,也想越來越懂你。



不然為什麼要給這個機械手裝上眼睛?

不要小看這個眼睛的作用,在長眼睛之前,機器手需要你告訴它每樣東西該怎麼抓,否則它就胡亂抓。想像一下你閉著眼睛找東西的樣子,大概就是這樣。

機器手是本來就有的,鏡頭和圖像辨識技術也是本來就有的,但是把這 3 樣已知技術結合在一起,就解決了假手「瞎抓」的問題。這是英國新堡大學生物醫學研究人員想出來的主意:把一個可以進行圖像辨識的鏡頭搭在一個假手原型上。

使用已經開發好的電腦視覺技術,研究人員透過深度學習訓練這個鏡頭辨識 500 個物體。比如當使用者想要拿起一個杯子,不需要向假手輸入任何訊號,在你把手伸向杯子的過程中,假手的鏡頭會對眼前的物體拍照,由後台辨識,然後根據深度學習訓練的結果判斷這個物體應該怎麼抓,然後把手型調整到相應的抓握形狀(比如拿起一支筆需要夾持的動作,拿起一杯水需要握住杯柄垂直移動),最後一步根據用戶的肌電訊號確認抓地力。

新堡大學生物醫學講師 Kianoush Nazarpour 博士說,「使用電腦視覺,我們開發出一種能夠自動響應的仿生手,實際上就像一隻真正的手,用戶可以快速使用正確方法去拿一杯水或一塊餅乾。」

「這個系統的優勢在於它更靈活,能夠拾取新鮮的物體。這是至關重要的,因為在日常生活中,人們需要毫不費力地拿起他們從未見過的各種物品。」

目前已有的假手,通常需要使用者用各種方式傳達一些訊號才能做出相應的動作反饋,也就是不管透過什麼方式,你需要告訴你的假手你要拿什麼。

比如在肩部或斷肢位置接入電極陣列​​用來讀取肌肉活動,在感知皮層植入電極陣列​​用於感知用戶的想法,隨後透過感測器發出手勢訊號,告訴假手該怎麼行動。這種把測量神經訊號的感測器植入肌肉內部,應該是目前最先進、最昂貴的假手了。

美國國防高等研究計畫署(DARPA)在 2016 年底推出售賣的名為 LUKE 就是這樣的假手。DARPA 希望 LUKE 是那種佩戴之後你可以用大腦控制的假手,只要腦子裡想做出什麼動作,機械手就會相應完成,目前已知 LUKE 已經可以完成吃漢堡、拿鑰匙開門、刷牙梳頭、吃漢堡,甚至是拉拉鍊這種很細節的動作。

這的確是一種理想生物手的代替,但是這樣的高級手並不是每一個需要假手的人都負擔得起。之前有傳言稱一個 LUKE 的價格大概在 10 萬美元。

給機械手裝上眼睛讓它自己去看,相對來說就便宜多了。

根據新堡大學研究人員的說法,安裝眼睛的假手,反應速度要比市場上大多數假手快 10 倍左右,而且也很便宜,這個假手的眼睛使用的僅是一個普通羅技(Logitech)鏡頭,用於圖像辨識訓練的 AI 模型也可說很廉價。

最重要的是,使用者可能不太需要動腦子跟假手對話和溝通,一切交給假手自己解決。

不過也不是說它就是完美的,首先用於辨識的神經網路不能做到完全準確,目前只有大約 80%~90% 的準確率;其次如果真的實現大規模應用的話,除了長眼睛之外,這隻手最好還要長腦子,能做到記憶和自主學習,不僅是依賴程式設計師不斷餵標籤數據。

世界這麼大,需要把握的東西太多,一個遲鈍的機械手也許還是會錯失一些機遇和幸運。知道怎麼撿起掉到地上的錢包,卻不知道怎麼撿起剛飄落的一朵花,也是一件挺遺憾的事。

(本文由 PingWest 授權轉載;首圖來源:新堡大學

關鍵字: , , ,