Google Pixel 增加一項 AI 功能,變得更貼心

作者 | 發布日期 2019 年 08 月 05 日 16:35 | 分類 AI 人工智慧 , Android 手機 , Google follow us in feedly


2019 年 8 月 1 日,Google 官方部落格宣布,Google 正為 Pixel 增加一款應用程式,讓使用者能在不說話的前提下,將位置資訊傳給醫療、消防或警方急救人員。

據 Google 官方介紹,此應用程式會有「醫療」、「火警」、「警察」3 按鈕,點擊按鈕,就會觸發文本到語音功能,解讀資訊告訴接線員,來電者正在使用一項自動服務,描述來電者需要的幫助種類及當前位置(來自手機 GPS 定位)。

(Source:Google

Google 表示,新功能適用某些需要緊急服務但因受傷、危險情況或言語殘疾而無法與接線員口頭溝通的使用者。另外,Google 還表示,這個功能將於未來幾個月在美國 Pixel 推出,隨後可能會在其他 Android 裝置應用。

國外媒體指出,Google 新應用程式是 Pixel 一項功能的擴展。早在 2017 年,Google 曾在 Pixel 推出智慧功能,包括撥打緊急電話時自動顯示位置。

此功能有很強的實用性,Pixel 使用者可在不熟悉具體位置的情況下報告有關社會治安的危急情況或事件。使用者在美國撥打緊急電話號碼(如 911)時,撥號螢幕會顯示緊急位置資訊,以便向緊急聯絡人員提供確切坐標。

Call Screen:拒絕垃圾電話,過濾來電

這不是 Google 第一次推出有智慧性質的手機應用程式,之前還有過離線即時語音辨識、過濾來電等應用程式。

(Source:Google

2018 年,Google 推出以 Duplex 技術打造的來電過濾、代接功能 Call Screen。使用者接受來電時,如果覺得可能是騷擾電話,可點螢幕上的「過濾來電」按鈕。Google 的 AI 助理會自動接聽電話,且雙方對話會即時辨識為文字顯示在螢幕上。

通常來說,AI 助理會在開頭先告訴對方,「你撥號的使用者正在使用 Google Call Screen 功能,他能看到我們的對話,請說你是誰,打電話來有什麼事。」

使用者不僅可觀看螢幕文字了解對話內容,還可以中途發指令給 AI 助理,例如:「事情緊急嗎?」、「我稍後打給你?」、「我沒有聽懂」。這些指令是 AI 助理根據上下文自動生成的建議指令,會顯示在螢幕,只要點一下,AI 助理就會自動詢問對方問題。

Google 表示,這個功能無需網路,不過暫時只能在美國使用,只支援英文,且只能在 Pixel 使用。

Gboard:無線即時語音辨識

另外,今年 3 月時,Google 在部落格宣布即時語音辨識技術取得突破──利用 Google Pixel 手機的神經處理功能加上人工智慧技術,Gboard 使用者可離線即時語音辨識。

之前,如果使用者在 Pixel 裝置使用 Gboard,需要先語音辨識並轉化成文本,而即時語音處理則需要使用 Wi-Fi 或蜂巢式網路連線才能進行。不過,經過 Google 開發架構,Gboard 可藉助 Pixel 裝置的神經處理功能,做到離線工作。

據了解,Gboard 新模型縮小了系統稱為「解碼器圖形」的部分,這個組件的功能類似書本索引,將音頻波形與書面文字配合。Gboard 的聽寫模型舊版中,這個解碼器圖形大小為 2GB,新版本僅 80MB,縮小了 25 倍。

儘管新功能目前僅適用 Pixel 裝置、講美式英語的 Gboard 使用者,但 Google 曾表示,希望開發的技術能用於更多語言、更多裝置、更多環境。

Google 在手機的一系列創新,正是今年 Google I/O 強調的價值觀──Building a more helpful Google for everyone──的最佳體現。

(本文由 雷鋒網 授權轉載;首圖來源:Google

延伸閱讀:

關鍵字: , , ,