為了找出狗的行為模式,美團隊讓 AI 透過 GoPro 從狗視角看世界

作者 | 發布日期 2018 年 04 月 27 日 20:30 | 分類 AI 人工智慧 , 尖端科技 , 科技趣聞 follow us in feedly

寵物的想法應該是所有飼主所關注的焦點,近期華盛頓大學正在使用 GoPro 鏡頭訓練 AI 神經網路,希望未來能找出狗的行為模式,並使機器狗也能像狗一樣行動。



團隊將這個項目稱為「DECADE」,意思是以狗環境的自我為中心的行動數據資料,將 GoPro 相機綁在阿拉斯加雪橇犬的頭上,團隊錄製了 380 段從狗視角出發的影片用以訓練演算法。

▲(Source:University of Washington

這些影片分別在 50 多個地點錄製,其中包含狗狗常見的活動地區:客廳、樓梯、街道和狗公園,而在錄製的同時,狗也一如以往的進行各項活動:走路、跟隨、抓取、跟蹤移動的物體,或是與其他狗互動。

除了拍攝影片,研究人員也透過將 Arduino 錄製的音頻與 GoPro 影片音檔對比,運用 Raspberry Pi 微型電腦將片段與狗身體位置的數據精確同步,進而記錄下各個時間點狗的身體、腿部及尾巴位置。

簡單來說,研究人員就是在詢問演算法「接下來會發生什麼?」當一系列片段展示時,演算法必須對接下來可能的行為進行建模,像是看到球被扔出去,狗可能會去追,又或是聽到食物會搖尾巴等。

團隊甚至嘗試只提供活動開頭及結尾的片段,並不給出發生在兩者間的訊息,讓模型去猜測狗狗在這之間究竟做了什麼活動──雖然聽來簡單,但這是必須由神經網路才能解決的問題,因為狗狗的每個動作都與環境變化相關。

▲ 實驗中只憑團隊提供的 5 幀影像,演算法確實模擬出了狗的實際反應。(Source:University of Washington

儘管並沒有被賦予任何指示或與預期結果的相關資訊,但實驗模型確實展現出對狗未來動向的預測,甚至是規劃出與狗行為模式類似的行動。團隊相信未來透過收集多隻狗的影片資料,再加入觸覺、聲音及嗅覺數據的整合,將可以改善模型,並將數據運用在更多樣的發展中。

這些資訊未來將可以用來增進機器狗的發展,同時也能投入其他任務的應用,像是透過環境辨識安全路線。研究草案已在 arxiv.org 公布,團隊預計將在 6 月的電腦視覺大會 CVPR 2018 公布相關內容。

(首圖來源:pixabay

關鍵字: , , , ,