
麻省理工學院(MIT)計算機科學與人工智慧實驗室(CSAIL)最近開發新系統,以視覺和人工智慧教導軟體機器人理解自身運動。此創新不依賴傳統感測器或手動編程,而是用消費級相機讓機器人觀察自己的動作,自建模型理解幾何形狀和可控性。論文刊登於《自然》期刊。
團隊表示,新系統可能大大擴展軟體和生物啟動機器人的應用範圍,能沒有GPS、模擬或感測器也能及時適應環境。CSAIL主任丹妮拉·魯斯(Daniela Rus)表示,新技術名為「神經雅各比安場域」(Neural Jacobian Fields,NJF),軟體機器人手能只用視覺觀察學習抓取物體,無需感測器或預裝AI模型。
核心在機器人以相機觀察自身運動並隨機動作,建立自身運動的模型。研究員用計算機視覺和機器學習,以單一圖像重建機器人3D模型,並以運動追蹤算法追蹤機器人訓練時運動模式。三種機器人都能學到自身長相,並理解可執行動作。3D列印DIY玩具機器手臂學會以公分級精確度空中寫字;氣動機器手臂觀察自身運動,學會控制每根手指氣流。
新研究不僅展示軟體機器人如何用視覺獲自我意識,還預言低成本製造、家庭自動化和農業機器人等行業的潛在應用。新方法消除專家建立準確模型的需求,並降低依賴昂貴感測器系統,以後可能會出現更多只靠視覺和觸覺運作的經濟型機器人。
- Robots that know themselves: MIT’s vision-based system teaches machines to understand their bodies
- MIT Teaches Soft Robots Body Awareness Through AI And Vision
- MIT’s sensorized skin gives soft robots an idea of touch and place
- “Sensorized” skin helps soft robots find their bearings
(首圖來源:MIT CSAIL)