麻省理工學者揭露,臉部辨識科技有嚴重種族性別偏見

作者 | 發布日期 2019 年 04 月 05 日 12:52 | 分類 AI 人工智慧 , 科技生活 line share follow us in feedly line share
麻省理工學者揭露,臉部辨識科技有嚴重種族性別偏見


臉部辨識科技的應用範圍越來越廣,但美國麻省理工學院(MIT)研究人員布蘭維妮發現,就算是知名科技業者開發的軟體,在辨識深色人種臉部時,錯誤率也偏高。

布蘭維妮(Joy Buolamwini)的研究發現,包括亞馬遜(Amazon)等科技巨頭開發的臉部辨識軟體,在辨識深膚色女性的性別時,錯誤率較辨識淺膚色男性的性別高出許多。

布蘭維妮已成功刺激微軟(Microsoft)、IBM 等企業改善自家系統,但亞馬遜卻大為光火,公開批評她的研究方法。一群人工智慧(AI)領域專家昨天公開力挺布蘭維妮,呼籲亞馬遜停止銷售自家臉部辨識軟體給警方。

除了專業人士和企業界,布蘭維妮的研究成果也引起政治人物注意,其中有些人主張,應為臉部辨識技術使用範圍設限。

布蘭維妮曾指出,目前相關技術多是在未受監督、甚至秘密情況下被使用,而一旦民眾有所警覺,可能為時已晚。

另外有許多研究人員也指出,人工智慧系統透過大數據尋找並識別規律、模式,但在過程中卻也複製了隱含在這些數據中的制度性偏見。

舉例來說,若人工智慧系統的學習材料多為白人男性影像,則它最適合用來辨識白人男性臉部。

這樣的差別性有時可能攸關生死。一份近期發表的研究顯示,幫助自駕車「看路」的電腦視覺系統,在偵測深膚色行人方面,明顯有困難。

(譯者:陳韻聿;首圖來源:pixabay