MIT 做了個「盲豹」機器人,爬樓梯騰空跳全無難度

作者 | 發布日期 2018 年 07 月 15 日 0:00 | 分類 AI 人工智慧 , 機器人 follow us in feedly

說起機器人爬樓梯,不少人可能會想起波士頓動力那隻黃色的 SpotMini 機器人。



如果你覺得 SpotMini 能透過視覺分析路況已經很棒,那 MIT 的 Cheetah 3 肯定讓你更驚豔,因為它不僅可爬樓梯可跳躍,且一切都不依賴視覺完成。

要是它踩到一些鏡頭看不到的東西,那該怎麼辦?我們不想過於依賴視覺。

一位參與 Cheetah 3 項目的工程師 Sangbae Kim 說。不靠視覺或任何感測器,機器人又是如何了解路況?

就和漆黑環境行進的人類一樣,Cheetah 靠的也是「摸黑前行」(blind locomotion)。具體來說,Cheetah 主要依賴兩套新演算法:1. 接觸感應演算法;2. 模型預測控制演算法。

簡單來說,接觸感應演算法可幫 Cheetah 判斷某隻機械腿接觸到的平面是否可「踏下去」,以及下一步又怎樣反應。

▲「摸黑」爬樓梯。

碰了一下後,演算法得快速判斷機器人腳下是脆弱的樹枝,還是踏實的路面,它能否踏下去?如果不可踏,演算法會結合回饋資料決定,接下來機械腿是趕緊抬起來,還是搖擺以保持整體平衡。

至於模型預測控制演算法,主要幫助機器人判斷,每踏出一步,到底需要用多少力,才能幫助機器人人保持平衡。

除了「踏好每一步」,演算法另一個工作在於幫助機器人遇到意外阻力時,要怎樣恢復平衡。

譬如說,有人在旁邊踢了機器人一腳。演算法就會想,「我剛在左邊遭遇一次意外速度,我要怎麼控制每隻腳的用力狀態,才能保持平衡?如果我在相反方向施 100 牛頓的力,半秒後會發生什麼事?」

Kim 解釋。這個演算法可幫助機器人對付研究人員突然拉扯和推力。

▲「推什麼!」

視覺判斷可能會面對干擾因素、不準確或情況不適用等問題。所以說,如果你的機器人過於依賴視覺,它對空間的判斷必須非常準確,這會使它反應變很慢。

因此,我們希望它可更依賴觸覺資訊,這樣一來,快速行動時仍可應付意外障礙物。

Kim 補充。此外,這個功能也是出於對 Cheetah 作用定位的考慮。

和旨在進入辦公室和家庭的 SpotMini 不同,Cheetah 的使命在於去人類不能到的地方,深入譬如坍塌大樓的廢墟、受核輻射影響地區等地方,進行救援等工作。這也意味它得面對更複雜的路況、光線更暗的環境。

不過,Kim 表示,他們還是會為 Cheetah 安裝視覺系統,但「不想將視覺當成控制第一位」。

除了「摸黑」系統,Cheetah 3 和上一代相比,靈活度也提升不少。

▲ 可逆膝關節系統,真‧機器人舞。

▲ 靈活擺動。

▲ 弓背彈跳,後面的研究人員也太高興了吧。

會開門的黃色 SpotMini Cheetah 3,你比較喜歡哪個呢?

(本文由 愛范兒 授權轉載;首圖來源:MIT News

延伸閱讀: