人工智慧的極限?那些刪不完的網路仇恨言論

作者 | 發布日期 2018 年 05 月 17 日 8:00 | 分類 Facebook , 社群 , 網路 follow us in feedly

Facebook 非常擅長移除平台上的色情、暴力、犯罪等內容,社群巨頭在 16 日公布了「年度透明度報告」(Facebook Transparency Report),詳細列出各種違反社群準則內容被移除的比例,但詳細觀察後會發現,「仇恨言論」移除的比例相當低,難不成是世界和平,大家都口說好話不再攻擊彼此了嗎?不,這背後其實跟人工智慧(AI)系統的能力極限有關。究竟為什麼 AI 下圍棋能贏人類、 AI 機器人都能獲得公民權的現在,仍趕不上仇恨言論增生的速度呢?



Facebook 公布年度透明度報告,仇恨言論移除比例最低

在外界紛紛期待 Facebook 拿出魄力整頓平台仇恨內容的態勢下,Facebook 大幅提高了今年(2018)內容審查團隊的預算,預計在今年底前聘用 1 萬名審查人員。

16 日公布的「年度透明度報告」(Facebook Transparency Report)多達 86 頁報告中,Facebook 公布今年第一季共刪除了 5.83 億個假帳號、8 億 6,580 萬則貼文,Facebook 將這些內容分為六大類,從數字來看,系統主動清除暴力內容比例是 86%、色情內容 96%,垃圾內容比例更高達 100%,令人意外的是,仇恨言論比例只有 38%,是所有類別最低的。

仇恨言論方面,科技技術仍無法運作順暢,仍需透過人工審查團隊協助。第一季成功移除了 250 萬則仇恨言論貼文,其中 38% 仇恨言論是由我們的科技揪出。──Facebook

歧視用語使用情境不同,仇恨言論難判斷

但這其實不能完全責怪 Facebook,原因是目前人工智慧(AI)對於仇恨言論定義的理解仍不夠深刻。

舉例來說,歧視性用語在某些情況下也會用於戲謔、自我解嘲等目的,而這些用語大多只在特定語境(包括個人主觀因素、地域差異、時代差異影響)才會產生歧視性意義,所以並沒有明確標準可判定某種用語是否為歧視,人類對「貶義、侵略性的內容」判定很主觀,甚至因人而異,不要說機器,甚至連人類自己判斷可能都沒統一的標準。

Facebook 產品管理副總裁羅森(Guy Rosen)就點出其中的困難處:

像是 AI 這類的科技,要準確判斷所有有害內容還有一段路要走,舉例來說,AI 還沒有足夠的能力,辨識一個人是在散布仇恨,或只單純描述自身被傷害的經驗,這可能會衍生出一些問題。

▲ 沒有明確的標準可判定某種用語是否歧視,人類對「貶義、侵略性的內容」判定很主觀,甚至因人而異。(Source:pixabay

除了用詞本身,使用情境也是一大關鍵,假設有一個用戶,只是單純發文講述他被當眾羞辱的經驗,描述的文字引用包含仇恨內容的原句,那這樣的貼文算不算仇恨言論內容?應不應該強制移除?身為人類的我們都能同意這樣的內容不算數,但 AI 又該如何理解這兩者之間的細微差別呢?

另外,從文化面來說,有些字眼也許在某些文化中是貶抑,但在另一種文化卻沒有這個意思,又或者是同形異義,這些又該如何讓 AI 理解呢?

祖克柏樂觀看待,5 到 10 年內開發新 AI 工具

如同祖克柏自己貼文所說:「我今年的首要任務是要讓人們感到安全。」為了將傷害降到最低,即使擁有大量科技資源的 Facebook,仍傾向使用人工審查來把關內容。

今年剛落幕的開發者大會 F8,Facebook 也談到,「要完全理解人類的語境,還是需要透過人類的雙眼,我們的團隊會親自審查,確定沒問題。」

▲ 祖克柏表示,未來 5 至 10 年內,Facebook 可開發出精準理解語意細微差異的 AI 工具。(Source:Facebook

祖克柏也在聽證會表示,他相信未來 5 到 10 年內,Facebook 可開發出能精準理解語意細微差異的人工智慧工具,將能更準確標記仇恨言論,他對這樣的未來相當樂觀。

(本文由 數位時代 授權轉載;首圖來源:pixabay

延伸閱讀: