聘請專業攝影師協助開發,Google Clips 在美國展開預購

作者 | 發布日期 2018 年 01 月 29 日 17:15 | 分類 AI 人工智慧 , Google , 數位相機 follow us in feedly

在 2017 年下旬 Google 產品發表會首度亮相的 Google Clips,上週末悄悄地在美國 Google Store 展開預購、隨即搶購一空。這款相機結合人工智慧,能夠辨識出完美的表情、光線以及構圖,自動捕捉美麗自然的影像,並經由機器學習提高拍攝技術。




Google Clips 自動捕捉珍貴畫面,錄製 Motion Photo

外觀輕巧的 Google Clips 可用背夾隨身攜帶,隨時隨地拍照或錄影。除了直接按下鏡頭下方的快門鍵拍攝,它更透過機器學習(Machine Learning)技術辨識人臉、自動捕捉珍貴畫面,錄製成數段 1-3 秒、沒有聲音的 Motion Photo,效果類似蘋果的 Live Photo。

Google Clips 不與任何 Google 的雲端服務共享數據,這些影像只加密儲存在相機上,用戶需使用特定 App 瀏覽,可透過 Wi-Fi 傳送到智慧型手機再分享至社群平台。此外,它具有鏡頭偵測功能,當鏡頭被擋住會透過手機通知提醒用戶。

Google Clips 建議售價為 249 美元(約台幣 7,300 元),但在 Google Store 卻已搶購一空,海外消費者只能等待電子郵件通知,而已經下單成功者預計可在 2 月 27 日至 3 月 5 日之間拿到商品。

以人為本的設計初衷,Google 聘請專業攝影師協助開發

既然 Google Clips 結合 AI(Artificial Intelligence,人工智慧)技術隨時捕捉畫面,為了內建軟體能夠識別出拍得好或拍得不好的照片,必須要有大量的影像數據做基礎。由 Google 的 UX(User Experience,使用者經驗)設計師 Josh Lovejoy 在官方部落格所發表的文章顯示,他們聘請專業的紀錄片製作人、攝影記者以及美術攝影師協助開發。

Google Clips 除了能夠明確辨識模糊不清或擋住鏡頭的影像為失敗的影像之外,開發過程還加入更抽象的標準,例如時間長短的考量,讓 Google Clips 不需要花過長的時間捕捉影像。

Josh Lovejoy 表示,這項產品實踐所謂以人為本的設計(human-centered design),讓 AI 產品提供用戶直覺的使用方式,而不會造成額外的壓力。

還有一點值得注意的是,例如 Google Clips 能辨識對焦明確的影像,但它怎麼會知道孩子第一次騎單車而被記錄下來的模糊照片其實是無價的呢?Google 官方承認無論提供多少影像數據給 Google Clips 進行分析與學習,其捕捉影像仍屬一種不精確的過程,因為現階段它無法確切知道用戶在乎的部分為何。

(圖片來源:Google 商店Google Design

延伸閱讀: