使用者發現推文照片預覽有膚色「偏見」,Twitter 回應了

作者 | 發布日期 2020 年 09 月 21 日 15:00 | 分類 數位內容 , 社群 , 網路 line share follow us in feedly line share
使用者發現推文照片預覽有膚色「偏見」,Twitter 回應了


為改善用戶體驗,Twitter 很早就開始嘗試用演算法自動裁剪照片,使得最終的預覽照片可以呈現整張圖最有趣的部分。

不過最近,Twitter 正在調查為什麼其照片預覽似乎更偏愛白人臉孔而不是黑人臉孔。用戶發現,裁剪照片預覽的演算法存在問題。

幾名 Twitter 用戶對該現象進行展示,並發布了含有黑人和白人臉孔的貼文範例。Twitter 的預覽顯示白人臉孔出現得更為頻繁。

例如,當將 Barack Obama 和 Mitch McConnell 的照片附加到推文上時,Twitter 似乎特別突顯了 McConnell 的臉。

實際上,當 Twitter 最早使用演算法自動裁剪照片預覽時,相關的機器學習研究人員在部落格中解釋了臉部辨識是裁剪圖像的過程,但並未詳述圖像中對人臉的顯示問題。

「以前,我們使用臉部辨識將視角聚焦在可以找到的最突出的面孔上。儘管這種啟發式方法還算合理,但由於並非所有圖像中都有人臉,因此該方法存在明顯的局限性。此外,我們的臉部辨識系統經常會疏漏,有時甚至在沒有人臉時會錯誤地檢測到人臉。」

Twitter 首席設計長 Dantley Davis 發表推文表示,該公司正在嘗試改進演算法,並對圖像顯示進行實驗:

「儘管這次測試並不算科學,只是個案,但它指出了我們接下來需要研究的一些變量。」

Twitter 團隊的 Liz Kelley 表示,該公司已經測試了上述問題,但尚未發現的有種族偏見或性別偏見的證據,「很顯然,我們還有很多工作要做。我們將開源這項工作,以便其他人可以審查。」Twitter 首席技術長 Parag Agrawal 則表示,該演算法模型仍需要「不斷改進」、「從實驗中學習」。

顯然,為了真正評估該模型是否存在偏見,研究人員需要在各類情況下使用大量實例和樣本進行研究。不過,Twitter 的工程師 Zehan Wang 提到,2017 年該演算法部署之前就被發現存在偏見,但並未達到「顯著」水平。

2018 年,Twitter 發表的一篇部落格文章中解釋了演算法是如何影響照片預覽,導致演算法選擇某一類圖像的原因之一是具有明顯的反差性,這可以解釋為什麼演算法似乎偏愛白人臉孔的原因。

(本文由 雷鋒網 授權轉載;首圖來源:pixabay

延伸閱讀: