推薦影片成為犯罪者「蟲洞」,YouTube 演算法再惹爭議

作者 | 發布日期 2019 年 02 月 20 日 17:00 | 分類 社群 , 網路 follow us in feedly

過去一年來,YouTube 因影片審核及推薦演算法問題受到許多批評,而近日 YouTube 創作者 Matt Watson 在 Reddit 提及他注意到推薦演算法造成的犯罪者「蟲洞」問題後,話題再度浮上檯面。



這不是 YouTube 推薦演算法第一次因負面影響被提及。過去幾年,YouTube 便曾被指控推薦極端主義、恐怖主義內容,甚至促進陰謀論、反事實的健康或科學內容而受到許多關注。

這次發現也是類似情況,但除了可能造成潛在影響,Watson 發現的內容與犯罪的關係又更緊密。

公布的 YouTube 影片中,Watson 展示他運用跳板成立的新帳號,在無過往紀錄下,演算法仍在他觀看成年女性泳裝影片後的數支推薦影片便導向未成年者穿著清涼遊玩的內容。

這些影片下方評論,也可見到許多用戶分享不恰當的評論、連結或時間標記來共享一些不妥當的時刻。除了譴責 YouTube 未能控管平台導致這種評論內容出現,Watson 也認為 YouTube 演算法打造出的這種「蟲洞」,似乎助長了這些犯罪者的聯繫。

其實早在 2017 年底,BBC 和 Times 調查並披露類似情況後,一些主要廣告商便凍結了 YouTube 支出,而 YouTube 同時也因提供兒童觀眾怪異且低品質的內容受到批評。

儘管 YouTube 隨後宣布一些相關政策變化,包含將積極監管兒童影片的評論,以及發現過多不恰當的內容便會完全關閉評論後,這種情況仍持續出現。

對 TechCrunch 詢問為何情況沒有改善,YouTube 發言人再度承諾會試圖改善情況,但他們也強調,關於演算法推薦的更改將是漸進式的,同時一開始只會影響美國一小部分影片,因為這涉及機器學習技術與人類評估員、協助培訓 AI 系統的專家。

發言人解釋,在人類審核方面,目前約有 1 萬名員工負責評估標記為審查的內容,而以目前來說,每分鐘上傳到 YouTube 的影片長度約為 400 小時,同時確認評論內容也仍是 AI 系統的挑戰。

除此之外,Watson 提及的多數影片都是孩童的日常生活(當然,問題在於如何被利用),YouTube 也與國際失蹤與受剝削兒童中心(National Center for Missing)合作,向執法部門報告不適宜的評論。

YouTube 是否會改變政策來承擔更大責任還有待觀察,但政治壓力可能是一種激勵力量,為網路平台的監管提供動力;隨著越來越多國家的監管單位決定對社群媒體祭出相關措施,包括要求網路公司承擔明確的法律責任,甚至也要求用戶對發表內容也負擔責任,相關平台在隱私及審核制度上或許會更完善。

(首圖來源:pixabay

延伸閱讀: