Twitter 新計劃:審視自家演算法的「無心之失」

作者 | 發布日期 2021 年 04 月 21 日 8:45 | 分類 AI 人工智慧 , 社群 line share follow us in feedly line share
Twitter 新計劃:審視自家演算法的「無心之失」


Twitter 宣布一項新計劃,稱為「負責任的機器學習」,主要研究 Twitter 採用的演算法公平性。

內容之一,就是由公司數據科學家和工程師,研究 Twitter 機器學習使用如何導致演算法偏差,並評估演算法可能造成的「無意傷害」,再將研究結果公開。「我們正在深入分析研究,以評估我們使用的演算法是否有潛在危害。」 Twitter 官方文件寫道。

首要任務之一是評估 Twitter 圖像裁剪演算法的種族和性別偏見。隨著越來越多新聞網站和社群媒體採用 AI 系統辨識、提取圖片,人們開始注意到許多演算法,尤其臉部辨識的種族偏見。

之前有 Twitter 用戶指出,有不同人種的照片,Twitter 自動圖像裁剪演算法會在選擇預覽推文呈現的縮略圖區域時,更突出膚色淺的人像區域。

去年 9 月,有研究人員發現,點擊這些原始圖片,可看到包含更多其他膚色的人,但即使改變原圖深色人種和淺色人種出現的位置,預覽結果也不會改變。也有網友認為,出現這情況是因演算法更傾向提取圖像亮度高和色彩密度大的區域,並不是「歧視」。

針對演算法遭指控種族歧視,Twitter 當時回應,將展開更多調查,並承諾開源圖像裁剪的機器學習演算法,接受更多用戶審查和建議。首席技術長 Parag Agarwal 表示,演算法需要不斷改進,團隊也希望從經驗中學習。

從 3 月起,Twitter 開始測試顯示完整圖像而不是裁剪預覽。但就算 Twitter 演算法並非「故意」種族歧視,但研發過程很可能會有一些缺陷導致種族歧視。

NVIDIA 的 AI 研究總監 Anima Anandkumar 就曾指出,顯著性演算法採用的訓練集,是異性戀男性的眼球追蹤的數據,這顯然會將受試者的種族偏見轉移給演算法。此外,Twitter 還將研究內容建議,包括訊息時間軸在不同種族群體的差異性等。

Twitter 表示將與第三方學術研究人員「緊密合作」,分析結果後續將會分享出來,並徵詢民眾回饋。目前不清楚計劃將產生多大影響。Twitter 表示,這些研究成果不一定會體現在肉眼可見的產品變化,更多時候圍繞他們構建和應用機器學習的方式。

Twitter 首席執行長傑克·多西(Jack Dorsey)也曾表示,他希望創建演算法市場,類似應用商店,讓用戶控制自己使用的演算法。最新 Blog 文章說,他們正處於探索「演算法選擇」的早期階段。

不只 Twitter,其實對各大社群平台來說,這是迫在眉睫的問題。

受美國社會事件影響,立法者施壓 Twitter、YouTube 和 Facebook,要求他們提高演算法透明度。一些立法者提議立法,要求這些網路科技巨頭評估演算法是否有偏見。

Twitter 決定要分析自己的「演算法偏見」,是在 Facebook 等其他社群網路之後:Facebook 在 2020 年成立類似團隊。

微軟也曾發生類似事件:早在 2018 年,微軟 AI 辨識膚色較淺男性時,準確性達 100%,但辨識深色皮膚女性時,準確率僅 79.2%。

去年 6 月初,微軟同樣因臉部辨識涉及種族歧視,引起輿論風波。英國知名女團 Little Mix 成員 Jade Thirlwall 發文,猛烈抨擊微軟新聞網站 MSN 在關於自己的報導混淆使用另一位成員的照片。報導證實是由 AI 抓取並生成,卻在找配圖時把黑皮膚的 Leigh 和阿拉伯裔的 Jade 搞混了。

收到越來越多用戶投訴,以及反種族歧視浪潮升溫後,IBM 和亞馬遜等大批科技公司被迫反思,尤其是臉部辨識技術的偏見。

(本文由 雷鋒網 授權轉載;首圖來源:Unsplash

延伸閱讀: