Facebook 演算法多可怕?實測 21 天全是假新聞、仇恨言論,卻因「語言」難控管

作者 | 發布日期 2021 年 10 月 26 日 16:09 | 分類 Facebook , 社群 , 軟體、系統 Telegram share ! follow us in feedly


Facebook 演算法到底有多可怕?據 Facebook 吹哨人 Frances Haugen 公布資料顯示,Facebook 早在 2019 年 2 月做過相關實驗,在印度設立測試帳號,觀察自家演算法如何影響這成長最快、最重要的海外市場,想不到結果竟連公司員工都震驚了。

Haugen 先前指控,Facebook 明知道 Instagram 危害年輕人精神甚至心理健康,卻故意淡化負面影響,現在她又公布一份 46 頁研究筆記,指出演算法的可怕,因為 Facebook 設立的測試帳號頁面,僅三週就充斥假新聞和煽動性照片,包括斬首、暴力場景及印度空襲巴基斯坦的假照片,「逗人開心」社團竟出現 300 名恐怖分子在巴基斯坦爆炸身亡的假新聞。

研究人員寫道:「我在過去三週看到的死人照片,比我一生看到的總和還多。」

這項測試起初是設計注意 Facebook 推薦內容,測試帳號身分是使用印度海德拉巴、住在齋浦爾的 21 歲女性資料,且只關注 Facebook 推薦的網頁或社團,但印度實驗表明,Facebook 全球傳播有害內容的問題可能更嚴重,因內容審核花的錢大都集中英美語系媒體。

但 Facebook 主要成長市場來自印度、印尼和巴西等,所以一直應徵有語言能力的人做基礎內容監督,但印度擁有 13 億人口和 22 種官方語言,因此實際運作更困難,Facebook 目前傾向將監督內容外包給承包商。

Facebook 發言人表示,公司已大量投資技術,並找到各種語言的仇恨性言論,包括印度語與孟加拉語,因此今年看到的仇恨言論數量減少一半,降至 0.05%。然而穆斯林等群體的仇恨言論全球都呈上升趨勢,所以 Facebook 將盡量隨網路仇恨言論演變更新政策。

語言成為 Facebook 審核仇恨內容的絆腳石?

路透社報導,更多內部消息揭露,Facebook 明知沒有雇用足夠工作人員,他們既要有語言底子,又要了解當地事件,才能即時了解這些仇恨文章。此外辨識、移除此類內容的人工智慧系統往往無法勝任這項工作。

員工於文件提到,這些問題可能妨礙公司原本的承諾,即阻止阿富汗、葉門等地的仇恨言論或其他違反規則的資訊傳播。

雖然 Facebook 長期將 AI 系統和人工審查視為解決平台危險內容的方式之一,但除了美國、加拿大和歐洲,其他地方的語言對 Facebook 自動審查功能可說相當頭痛。據一份文件顯示,2020 年 Facebook 篩選演算法無法辨識緬甸語錯誤,以及衣索比亞的奧羅莫語(Oromoo)或阿姆哈拉語(Amharic)的仇恨性言論。

這些偏激文章恐在 Facebook 不斷流竄,最終激化公司認定的「高風險國家/地區」,導致衝突大增。

Facebook 發言人表示,公司現在有主動辨識技術,檢測奧羅莫語和阿姆哈拉語的仇恨言論,並雇用更多有語言基礎、了解國家關係的專業人士,包括緬甸和衣索比亞工作的人。不過他也承認,審核阿拉伯語系內容是相當大的挑戰,因此 Facebook 過去 2 年還特地投資員工。

目前主動辨識技術可辨識 50 多種語言的仇恨性言論。Facebook 指出,公司會根據市場規模和風險進行評估,決定在哪裡建置人工智慧系統;還會有 15,000 名審核人員把關全球用戶內容,「增加更多語言專業知識一直是我們的重點」。

(首圖來源:Unsplash

延伸閱讀: