Google ARCore 新功能,僅用單鏡頭就可拍出深度圖像

作者 | 發布日期 2019 年 12 月 12 日 8:15 | 分類 Google , VR/AR Telegram share ! follow us in feedly


Android 擴增實境(AR)取得重大進步,近日 Google 正在為開發工具包 ARCore 添加 Depth API,這項新功能僅用單鏡頭就能創建深度圖,而不像之前需要 2 個鏡頭或 ToF 感測器。當移動鏡頭時,會自動捕捉多張圖像,然後比較這些圖像來估計你與每個畫素的距離。

這功能讓人印象深刻,但 Google 對 API 的預期用途甚至更好:用於遮擋,讓數位對象看起來與真實對象重疊,比單純的 AR 覆蓋更無縫融合 AR 世界。從今天開始,Scene Viewer(用於搜尋 AR 的 Google 開發人員工具)將為超過 2 億台使用 ARCore 的 Android 裝置提供遮擋功能。

在 AR 有無數深度映射和遮擋的潛在應用, Google 已經表明其中一些人將如何工作,包括更新 Houzz 應用程式,將數位樣本家具模型在實際空間更真實地展示,同時使數位對象能與它們互動並得到回饋。

儘管 Depth API 支援沒有傳統深度感測器的單鏡頭裝置,但也預計 ToF 感測器將做到更快動態遮擋,從而將數位對象某些部分隱藏在真實運動對象之後。最近三代 iPhone 都配備前置深度感測器,以及近期一些三星和 LG 裝置也開始增加飛行時間後置鏡頭,預計其他公司在 2020 年都會開使仿效。

對新 Depth API 有興趣的開發人員需要回應 Google 對合作者的呼籲,因軟體顯然還沒有普及到各人。用戶可在 Play Store 的最新版 Android Houzz 應用程序看到新功能的運行情況。

(本文由 雷鋒網 授權轉載;首圖來源:Google developers

關鍵字: , , ,