太依賴演算法,Facebook 麻煩事不斷

作者 | 發布日期 2017 年 09 月 19 日 13:55 | 分類 Facebook follow us in feedly

美國獨立非盈利新聞媒體 ProPublica 揭穿 Facebook 令人詬病的廣告機制,他們花了 30 美元在 Facebook 廣告購買軟體上透過幾個仇恨猶太人相關的關鍵字,成功對多達 19 萬目標用戶下廣告,此舉逼得 Facebook 不得不移除幾個欄位,包括研究領域與大學等個人資訊,但此事件已經造成輿論對 Facebook 假道德的質疑。



去年美國總統大選,已經讓 Facebook 蒙上散播假新聞共犯的陰影,且實際上俄國的確透過 Facebook 假帳戶,花了 10 萬美元散播干預選舉的假訊息,Facebook 宣稱完全不知情,還得因此上國會作證。現在又被外界揭穿人人都可輕易透過 Facebook 鎖定特定族群散播消息,譬如反猶太團體透過 Facebook 發起反猶活動,散播不實言論等。

中間的運作機制是用戶在個人資訊添加的所有資訊,都會成為標籤,譬如在研究領域欄位增加反猶太相關字眼,就會納入 Facebook 的搜尋資料庫,提供廣告主搜尋目標受眾時使用。ProPublica 就是鍵入如何燒猶太人、猶太人毀滅世界的歷史、猶太人仇恨者、納粹黨、德國民族民主黨、德國的親衛隊等等關鍵字,就成功得到 19.4 萬目標受眾。

廣告是 Facebook 主要的收入來源,身為網路媒體,已經沒有傳統媒體的人為監管過程,包括批准與啟動交易等工作都交給演算法。

雖然 Facebook 口口聲聲表示反對假新聞和族群仇恨等言論,但卻沒有實際作為,再三發生的事件證實,演算法已遭到濫用。Recode 共同創辦人 Walt Mossberg 抨擊表示,這件事情突顯人的標準與責任交給粗糙的演算法之後,責任與標準就蕩然無存。

演算法可以決定用戶看到什麼,看不到什麼,又缺乏人為管理與監督,容易成為犯罪與仇恨的溫床。ProPublica 透過幾個仇視猶太人的關鍵字成功發布廣告之後,向 Facebook 反映,Facebook 官方說法表示,「我們不允許在 Facebook 散播仇恨言論,我們的社群標準嚴格禁止宗教與各個人身攻擊,也禁止廣告主散播歧視訊息,但基於違反標準的內容發生太多次,決定移除相關有問題的欄位。」

Facebook 強調會加強產品護欄機制與管理審查流程,避免類似事件再度發生,但顯然對此還沒有明確的解決方案,他們也不承認自己是始作俑者。但網路特質本來就是這樣,使用門檻低,缺乏人為監管,因此容易遭到濫用。Recode 認為,全然仰賴演算法來賺錢,失去自己的道德責任與標準,遲早有一天會被用戶與廣告主唾棄。

(首圖來源:Flickr/mkhmarketing CC BY 2.0)