用眼球控制 iPhone 是不錯的想法,但想解放雙手還是不夠

作者 | 發布日期 2018 年 06 月 12 日 7:30 | 分類 Apple , iOS , iPhone line share follow us in feedly line share
用眼球控制 iPhone 是不錯的想法,但想解放雙手還是不夠


眾所周知,由於採用採集 3D 深度資訊的結構光設計,蘋果為 iPhone X 添加了不少新玩法,各種圍繞臉部的辨識方案也成為很多人關注的話題。

除了最常見的人臉解鎖,動態 Animoji 表情也衍生出很多鬼畜表情和短片,就連蘋果自己也嘗試用這些頭像做過幾次宣傳廣告,比如下圖。

iOS 12 裡,蘋果進一步增強了 Animoji 的辨識範圍,這次連「吐舌頭」都可以完美還原到自訂頭像了。

3D 結構光的潛力顯然遠不只這些,基於新的 ARkit 2.0,腦洞大開的開發者又想出新玩法──用雙眼代替手指,直接「操作」iPhone

名為 Matt Moss 的學生開發者最近在自己的 Twitter 展示了測試影片,可以看到 iPhone X 螢幕出現一個游標,游標的「行動」完全由眼球控制,此外只要開發者眨一下眼睛,遊標也會判定為「點擊」,隨即進入新功能表頁面。

根據 Mashable 報導,所謂的「眼球追蹤」功能是蘋果 ARkit 2.0 新加入的功能:「最初我只是想做個 Demo 來試試這個功能的可行性。」

但很顯然,配合 3D 結構光更精準的辨識,現在眼球追蹤的準確度遠比前幾年的雞肋表現出色得多。同時這也意味著,現在手機鏡頭不僅能自拍,同時也能準確判斷你的注意力在螢幕哪個位置,這也為自訂廣告和應用服務提供更多想像空間。

但如果談到互動實用性,我想大部分人還是更願意用手指戳螢幕,為什麼呢?

之所以這麼說,或許和三星 Galaxy 系列曾「翻車」有關。早在 Galaxy S4 時代,三星就在手機加入一系列眼部和頭部控制功能:如果手機偵測到你的視線離開螢幕,正在播放的影片就會自動暫停,此外還可以根據你的頭部傾斜角度來捲動螢幕等。

這功能當時聽上去挺酷炫的,實際用起來可能就變成下面這樣子:

所以,為了你的頸椎著想,如果你打算靠「動動眼珠子」來取代雙手,還是盡早打消這個念頭吧。反而對行動不便的殘障人士來說,眼球追蹤技術更能展現出應有的價值和意義。

具體的案例微軟已經有了,如今 Windows 10 系統便自帶用眼球「操作」電腦的「Eye Control」特徴,可讓身體不便的人用眼睛「打字」。

回到蘋果這隱藏的小功能,值得注意的是,蘋果在去年收購了一家專注 VR 頭盔和 AR 眼鏡視覺追蹤技術的德國企業 SensoMotoric Istruments,此舉也被業界認為是蘋果在神祕 AR 裝置的技術積累。加上還有一系列手勢和眼球追蹤專利,說不定未來蘋果的虛擬實境產品,我們能看到意想不到的新玩法。

(本文由 愛范兒 授權轉載;首圖來源:蘋果

延伸閱讀: