麻省理工學院為種族歧視資料庫 Tiny Images 致歉並永久下架

作者 | 發布日期 2020 年 07 月 03 日 15:45 | 分類 AI 人工智慧 , Big Data Telegram share ! follow us in feedly


人工智慧利用深度學習獲得分析能力,雖然本身並沒有偏見和歧視,但訓練用的資料庫還是難免有人類偏見。最近麻省理工學院(MIT)為提供的 Tiny Images 資料庫致歉,因被指有偏見,訓練出來的人工智慧恐有同樣問題。

MIT 的 Tiny Images 公開資料庫,是訓練人工智慧圖像辨識系統常用的工具,數據量非常龐大,有多達 8 千張圖片和相關詞彙,不過內容其實相當參差,例如會將黑人和亞洲人與負面詞語連結,也有性別歧視內容。因此當開發人員不清楚詳細情況就使用,訓練出來的圖像辨識系統就有偏見和歧視,特別執法機關挪作監控之用時就更有問題。

MIT 衷心為此資料庫道歉,並已移除 Tiny Images 不再公開,更要求研究人員和開發者停止使用此資料庫訓練人工智慧,且刪除相關資料,避免以後再被人誤用。負責人受訪時承認應該人工篩選內容,此資料庫內容都是網路自動取得,因此含冒犯性和充滿偏見。

(本文由 Unwire Pro 授權轉載;首圖來源:shutterstock)