憤怒、厭惡、恐懼、快樂、悲傷、驚訝……你臉上的表情,現在正變成「情緒經濟」。
當你疲勞駕駛,失神或焦躁情緒將被車子辨識警告;用平板學習時有困難,平板會讀取你「困惑」的情緒,並放慢教學速度;當賣出一個商品,你可以透過消費者臉部情緒快速評估產品的效果……
《衛報》稱,「AI 臉部辨識情緒」已成為規模 200 億美元(約台幣 6,210 億元)的業產,且還在擴充。
早在 2009 年,第一家經營「人工情緒智慧」的公司 Affective 就已經將情緒檢測技術當成市場研究產品出售。
包括檢測機械員工損傷、影像遊戲用戶體驗、協助醫護人員評估患者健康等各行各業,圍繞它的領域都在持續增長,亞馬遜、微軟和 IBM 也將「情緒分析」當成臉部辨識產品的主要功能去宣傳。
Affective 創始人 Kaliouby 預測,不久的將來,當這項技術無處不在、並融入所有裝置時,能「利用我們的內心、潛意識瞬間反應」。
冰冷的機器如何辨識人類情緒?
目前,情緒檢測主要透過兩種技術,一是電腦視覺,精確辨識臉部表情,二是機器深度學習技術,分析和解釋臉部特徵的情緒內容。
身為最早由「情緒經濟」獲利的公司,Affectiva 的核心技術是名叫 Affdex 的情感引擎。
Affdex 啟動後,鏡頭會鎖定人臉,透過觀察表情的紋理、肌肉和變化,「編碼」人類五官的特徵點,並和圖像資料庫比對,進而確認你的情緒並回應。
Affectiva 的網站擁有世界最大的情感資料儲存庫,這也是情緒檢測進展快速的原因。
這些數據大部分都是從人們收看電視或每天開車上下班的選擇性錄影去收集,涵蓋 87 個國家不同年齡、性別、種族的超過 750 萬張臉孔。
當收集到人們影像後,Affective 辦公室的 35 名「標記人員」會分類,例如人們表現出低垂的眉毛、緊繃的嘴唇和凸起的眼睛,就會貼上「憤怒」。
這些被標記的人類情緒數據用來訓練 Affective 的演算法。
當「快樂」、「憤怒」、「悲傷」等標籤的臉譜圖成千上萬,Affective 也就能將情緒辨識和聯繫處理得越來越精準,甚至能判斷你是否隱藏情緒。
這種標記方法被很多情緒檢測業的人認為是檢測情緒的黃金標準,這來源於「情緒臉部動作編碼系統 Emfacs」,整個 20 世紀下半葉都視為經典的情緒理論,使用在美國中情局、聯邦調查局、海關、邊境保護等地方。美劇《謊言終結者》透過人臉表情來探測案件真相的靈感也來源於此。
但就像所有新技術都有兩面性,情緒檢測,同樣也面臨爭議和質疑。
讀懂情緒不簡單
強烈而持久的反面聲音是美國東北大學的心理學教授 Lisa Feldman Barrett 提出。
她表示,「提供人們選定的情緒標籤,會在無意中引導人們表現出相對應的表情」,因為「固定的標籤」幾乎和「刻板印象」畫上等號。
通俗點說,標籤化的情緒就像 emoji 表情。
有公司甚至表示能透過這種標籤化辨識,判斷出對方是不是戀童癖、恐怖分子,還能從臉發現對方是否想進行性行為。
最近還有一項研究表明,情緒辨識會產生種族歧視,且去年就有研究顯示情緒檢測技術時,黑人的負面情緒比白人多,情緒辨識也被認為「有偏見的缺陷」。
Barrett 和一組同事重新測試驗證。測試過程中他們不提供情緒標籤,而是讓測試者看到圖像時自由描述圖像的情緒,發現特定臉部表情和特定情緒之間的相關性直線下降。
後來 Barrett 在她的書《情緒是如何產生的:大腦的祕密生活》闡述自己的情緒理論。她認為大腦沒有外部刺激觸發的普遍情緒,每次情緒體驗都是由內部更基本的部分構成。
(情緒)是人類身體物理特性的結合,靈活的大腦將它們連接到自身所處的任何環境,根據每個人的文化水準和成長環境都會有所不同。
情緒豐富且複雜。
所以將臉部表情直接映射到所有文化和背景的情感都沒有意義,一個人可能生氣時皺眉,另一個人可能在謀害對手時禮貌微笑;一個人可能喜歡受挫時得到暖心的勵志談話,另一個人也可能希望有個能怒吼的地方發洩。Barrett 表示:
評估情緒最好理解為動態實踐,這涉及自動認知過程,人與人之間的互動,個人經驗和文化能力。
Affective 創始人Kaliouby 也同意這個說法,並不斷改善數據的多樣性,用影像、語音、步態及更多微小變化來達到更準確的結果。
畢竟像「情緒」這貫穿人們每時每刻生活的東西,如果不準確的分析在社會、工作時採用,並讓人們得到惡劣結果,短期是一時不公平的物質傷害,長期則足以積累影響整個人生。
技術確實能讓生活變得更好,但在真實生活面前,依然是滄海一粟;不過更嚴謹的情緒檢測技術依然值得期待。