研究指出用 AI 找出仇恨言論,黑人言論被針對狀況多 1.5 倍

作者 | 發布日期 2019 年 08 月 16 日 13:56 | 分類 AI 人工智慧 , 數位內容 follow us in feedly


許多社群平台變成有各種族裔共處的地方,也就難免有攻擊與侮辱的言論,因此用 AI 來找出潛在的仇恨言論,成為火紅的策略。然而依據研究者發現,AI 反倒強化既有的社會偏見,黑人的言論有更高的可能被標示為仇恨言論。

兩項新研究不約而同的指出訓練 AI 找出仇恨言論強化既有的社會偏見,華盛頓大學 (University of Washington) 的研究指出,黑人的 Twitter 貼文比其他族裔多 1.5 倍,被 AI 偵測為仇恨言論,而另一項由康乃爾大學領軍的研究指出,用演算法標示美國黑人英語也有同樣社會偏見傾向,相當容易標示為仇恨言論,達到 2.2 倍的情形。

由於 AI 演算法難以理解人類語言背後的社會情境設定,有些髒話在其他情境下,像是黑人自己用黑鬼用詞,或是酷兒自嘲用酷兒用語,並不會有太大問題,但 AI 沒辦法讀出字詞背後的情境。

兩篇論文都在計算語言學的大會發表,自然語言處理並非萬靈丹,也有與人類一樣的盲點,兩篇論文也證明訓練素材就是有偏差了,標示者沒有依據說話情境判斷,已經從一開始就出問題。

延伸出來的問題,就會是 Google、Facebook、Twitter 使用的內容審查工具,是否像上述研究指出的問題,可能從訓練素材出問題影響到演算法。由於科技公司的 AI 技術,往往需要與學界的技術交流,如果研究者發現研究用的演算法都出問題,大概也能推論出商業公司用的演算法也得好好檢驗了。

儘管社群平台視 AI 為救世主,能夠解決棘手的內容審核問題,但看來有相當大的執行疑點,而且如果一開始的訓練素材出問題,後面訓練出來的演算法將會問題多,變成充滿偏見的 AI。

(首圖來源:pixabay)