YouTube 最近推出新計畫,為應付平台日益增加的 AI 內容,並要求用戶幫助評估這些內容的品質,方法是 YouTube 請觀眾評分影片,判斷是否為「AI 垃圾」。雖然詢問使用者意見似乎頗為合理,但可能引發更多問題。
首先,觀眾辨識是否AI內容能力有限,且人類檢測與AI的差距還在擴大。早期AI內容有明顯特徵,如機器人聲音、扭曲的手或不自然的面孔,但新模型都大幅改善這些問題。研究顯示,當人們被要求辨識AI產生臉孔,表現僅略高於隨機猜測,且人類覺得自己認得出AI臉孔的信心通常高於實際準確率。
YouTube以往表現也不利此計畫。研究發現,約21%新帳號前500支推薦影片都標記為AI垃圾,《紐約時報》調查顯示,觀看YouTube 15分鐘,就有超過40%兒童推薦短片是低品質AI影片,且能觀看就表示影片已通過YouTube自動和人工審核系統上架,官方期望觀眾做得更好非常不切實際。
即使觀眾辨識AI內容達100%,新評分系統也容易遭濫用。YouTube的創作者協調攻擊已是眾所周知的問題,惡意者可大量舉報和按不喜歡攻擊特定頻道。這些功能都能用來不當標記影片,無論是否使用AI。
YouTube尚未解釋如何驗證或權衡觀眾評分,代表灰色地帶仍寬闊,這讓經營頻道多年、已建立忠實觀眾群的創作者,現在需面臨與作品品質無關的新風險。如果新系統沒有任何創作者保障就開始全面推行,可能造成嚴重傷害,與YouTube想改善低品質AI內容的初衷完全是反方向。
此外,YouTube並未明確禁止創作者以AI創作,雖然有要求須披露AI修改或合成,但適用範圍有限。YouTube經營方針其實變相助長假影片問題,且改善措施常未奏效,現在更將審查工作外包給觀眾,還不解釋資料如何使用與獎勵幫忙的觀眾,顯得觀眾只是免洗工具,而非社群的一分子。如果YouTube真心想解決AI垃圾問題,就必須主動承擔解決,而不是將自己的工作推給觀眾。
- YouTube is outsourcing its AI slop problem to you, and that’s a terrible idea
- YouTube is now asking viewers if videos feel like AI slop
(首圖來源:Unsplash)






