「嘿,Siri」,語音助理背後隱藏的努力與心思

作者 | 發布日期 2017 年 10 月 19 日 14:35 | 分類 AI 人工智慧 , Apple follow us in feedly

蘋果今天在公司機器學習部落格發表一篇新文章,詳細介紹了硬體、軟體和網路服務如何結合,在最新 iPhone 和 iPad Pro 達到「嘿,Siri」功能。



蘋果在運動輔助處理器整合了非常小的語音辨識裝置,這個裝置一直保持執行,並等待用戶說出「嘿,Siri」。當辨識出這兩個單詞後,Siri 會將後面的語音處理為指令或查詢。語音辨識偵測裝置採用深度神經網路將用戶語音指令轉換為概略分散,並使用時間整合計算「嘿,Siri」的信度分數。

如果分數夠高,Siri 就會被觸發,並開始處理用戶的指令或查詢。如果分數超過最低閥值,但沒有達到觸發閥值,裝置會在幾秒鐘進入「敏感型態」,這樣當用戶再次重複「嘿,Siri」時更可觸發。敏感型態的加入大大改善了系統的可用性,同時還能避免陌生人誤開「嘿,Siri」。

為了減少預設是意外觸發「嘿,Siri」,蘋果邀請用戶起始化「嘿,Siri」時,需要用戶連續說 5 次這兩個單詞。在使用過程中,蘋果會記錄不同環境遠近觸發「嘿,Siri」的情況,比如在廚房、車上、臥室及參觀時等。想了解更詳細的「嘿,Siri」,可參考蘋果原文

(本文由 MacX 授權轉載;首圖來源:影片截圖) 

關鍵字: , , ,