蘋果計畫運用機器學習持續改善「Hey Siri」功能

作者 | 發布日期 2018 年 04 月 17 日 17:23 | 分類 AI 人工智慧 , Apple , 手機 follow us in feedly

Apple 的 Siri 可以說是最著名的語音助手之一,其中不必按按鈕便能向 Siri 下指令的「Hey Siri」功能也受到許多好評,近日在部落格中,Siri 團隊除了表示計畫運用機器學習持續改進這項功能,也解釋了 iOs 設備的 Hey Siri 功能的運作方式,以及未來計畫持續改進的目標。



所謂的「Hey Siri」功能,就是讓使用者不必按按鈕、只需在語音指令前加上 Hey Siri,手機便會自動啟動並遵照指示行動。

但 Apple 究竟是怎麼做到的?部落格文章指出,「Hey Siri」的進化與解決了「關鍵片語檢測」(key-phrase detection)問題相關,同時運用了 DNN 來進行了早期建模工作,並使用了遞歸神經網路(RNN)來進行多樣化的訓練與學習。

Siri 團隊解釋,之所以選擇以「Hey Siri」作為觸發語,是因為即使在這項功能推出以前,人們在運用按鈕呼喚 Siri 也會自然而然的在請求前加上這句話。這原先是一個方便用戶的簡單決定,但早期的離線實驗中,Hey Siri 的簡潔和口語性卻為開發團隊帶來額外的挑戰。

Siri 團隊主要面臨的錯誤辨識挑戰為三種,分別為當用戶表達類似短句時、當非用戶說出 Hey Siri 時,以及最令 Siri 團隊頭痛的當非用戶說出類似短句時。

為了讓 Siri 不被類似短句及非用戶誤導,團隊先是將焦點由尋常語音辨識目標的「說話內容」轉移至辨識「說話者」的身分,利用說話者辨識(speaker recognition, SR)並結合相關技術來增進偵測關鍵短句的系統質量。

以目前來說,Apple 會要求首次使用的用戶以要求的 5 個短句來語音來完成說話者辨識系統的註冊,但除了這種顯性註冊模式之外,團隊也設計了另一種隱性模式(implicit enrollment)的辨識:透過紀錄用戶一段時間內的語音,進而提高對說話者辨識的穩健性。

當然考量到個人隱私的因素,音頻將保留於設備上而並非雲端,但這種設計目前仍有一些疑慮存在,如果早期紀錄的語音片段並非用戶本人,那麼設備可能會錯誤的拒絕用戶指令或錯誤的接受非用戶的聲音,如此一來功能將變得毫無用處。

展望未來,除了像所有語音辨識系統一樣得想辦法克服環境噪音的問題,Siri 團隊還希望未來用戶能不需經過任何訓練與註冊,在開始使用「Hey Siri」功能後透過用戶的許可,透過生活裡的指令中便能將語音辨識資料的內容持續增長與更新。

雖然還不清楚這些改動何時會推出,但 Apple 經常會在每年 6 月全球者開發大會上談到 Siri 的重大改進,相信在不久的未來我們很快就能聽到一些好消息。

(首圖來源:Apple