華爾街日報再揭 AI 處理仇恨言論效果不彰,Facebook 提出數據反駁

作者 | 發布日期 2021 年 10 月 18 日 14:15 | 分類 Facebook , 數位內容 , 社群 Telegram share ! follow us in feedly


包括執行長祖克柏(Mark Zuckerberg)在內的 Facebook 高層長期以來表示,AI 人工智慧可以解決該公司所存在的問題,將仇恨言論、煽動暴力等排除在平台之外。不過,華爾街日報報導引用 Facebook 內部文件指出,人工智慧在消除仇恨言論、暴力以及其他問題所取得的進展微乎其微。為此,負責維護社群誠信的 Facebook 副總裁 Guy Rosen 透過官方部落格反駁,平台上仇恨言論的流行程度在過去 3 季已經下降 50%。

華爾街日報 17 日報導指出,Facebook 旗下一組員工在今年 3 月發現,該公司的自動化系統僅能移除平台上 3%~5% 具仇恨言論的貼文,甚至只移除不到 1% 違反暴力與煽動規則的內容,這些比例相當低。負責將違規內容排除在平台之外的 Facebook 員工們,並不相信公司能對這些仇恨言論進行篩選。

實際上,當 Facebook 的演算法不足以確定內容是否真的違反規則而須移除時,該平台會減少向用戶顯示該貼文的頻率,然而發布貼文的帳號卻不會受到任何懲罰。

此外,內部文件還顯示,Facebook 在 2 年前減少人工審核人員審視違規內容的時間,並且進行其他調整以減少申訴數量。華爾街日報認為這使得該公司更加依賴人工智慧執行平台規則,並在統計數據中誇大了這項技術的效用。

不過,Guy Rosen 為此駁斥華爾街日報的報導,認為內容談到 Facebook 用來打擊仇恨言論的技術不足,以及故意扭曲 Facebook 公司的進步是錯誤的報導內容。

Guy Rosen 表示,Facebook 不希望在平台上看到仇恨,用戶以及廣告主同樣也不希望看到這些,而平台對移除仇恨言論的作業是透明的;那些文件則表明,Facebook 對於社群誠信工作是一個多年的進程,「雖然我們不完美,但團隊會不斷努力開發系統、發現問題並打造解決方案。」

Guy Rosen 則認為,僅關注在內容移除上,對於如何看待 Facebook 打擊仇恨言論是錯誤的方式。他點出消除仇恨言論的技術只是 Facebook 用來對抗它的一種方法,「在移除某些貼文之前,我們還需要任某些內容確實是仇恨言論。」

Guy Rosen 進一步表示,關注人們在 Facebook 上實際看到的仇恨言論數量,以及 Facebook 如何使用各種工具減少這些內容更為重要。Facebook 日前發布的新版《社群守則執行報告》顯示,平台上每 10,000 次觀看貼文內容,有 5 次會看到的是仇恨言論,比例為 0.05%,在過去 3 季已經下降了 50%。

(Source:Facebook

事實上,華爾街日報近期根據 Facebook 前產品經理 Frances Haugen 提供的內部文件,以及對前任與現任員工的採訪,製作出一系列報導,引發社會大眾對 Facebook 這個全球最大社群平台的不同看法。尤其一篇關於 Instagram 影響少女心理健康的報導,更在 9 月底促使美國參議院舉行聽證會,為此做深入討論。

(首圖來源:Unsplash

延伸閱讀: