矽谷超夯臉部辨識 AI,竟對種族歧視更嚴重

作者 | 發布日期 2020 年 06 月 21 日 12:00 | 分類 AI 人工智慧 , 軟體、系統 line share follow us in feedly line share
矽谷超夯臉部辨識 AI,竟對種族歧視更嚴重


假設有一天,台灣桃園機場開始啟用臉部辨識 AI,來過濾境外移入的疑似病例,除了輸入武漢肺炎(新冠肺炎,COVID-19)症狀外,由於過往染病的多是年長者,AI 從舊資料來判斷,索性就針對年長的旅客仔細監控,其他族群旅客就放水。這樣的差別待遇,你能接受嗎?

AI 差別待遇的問題,其實已經出現在美國。根據一位麻省理工媒體實驗室的資料科學家喬伊‧波拉維尼(Joy Buolamwini)所做的研究,她發現由微軟、亞馬遜與 IBM 等公司研發出的臉部辨識 AI 演算法,對於判讀白人,以及黑人與女性竟然出現了差別待遇。

也就是判讀白人的正確度比較高,判讀黑人與女性的正確性則低。雖然這個漏洞並不全是人為刻意造成,它造成的衝擊,可能比街頭上歧視黑人的警察更嚴重。

更不妙的是,許多矽谷公司已看出臉部辨識 AI,是即將爆紅的新趨勢之一,正積極鼓吹警察與政府使用,這裡面包括拿來辦案與查嫌疑犯。因此在最近引發了軒然大波,包括綠色和平組織在內等超過 40 個公民團體,在近期要求應該盡速立法禁止警察使用 AI。也因此讓亞馬遜、微軟與 IBM 等矽谷企業紛紛出來滅火暫停服務。

黑人得戴上白人面具,AI 才能判讀

這種科技裡潛藏的差別待遇,到底是怎麼回事?故事要從揭發真相的喬伊‧波拉維尼本人說起。

她除了是個優秀的資料科學家,也是位黑人女性。從小到大,被周遭白人排擠對她來說,根本是生活的日常。然而喜愛科學的她,總是相信科技創新可以為所有種族帶來更公平的做法。直到有一天,她用自己的臉與照片測試了微軟、IBM 等矽谷公司研發的臉部辨識 AI 服務,才發現驚人事實:這些號稱先進的辨識服務,有的根本對她的照片沒反應,跳不出任何結果;有的則把她的性別判讀成男性,錯誤率高得離譜。直到她戴上白人面具,判讀才恢復正常。

到底是她自己長的太特別,剛好是 AI 辨識不出來的特例?還是這些演算法本身有漏洞?於是,波拉維尼決定用更多照片來測試,包括了白人、亞洲人、黑人等多元種族,以及男性與女性。結果發現,膚色愈白,辨識正確率變高;男性的辨識率也遠較女性高。由於她是黑人女性,雙重弱勢的狀況下,讓她這類人的辨識正確度,遠低於白人男性。

▲ 麻省理工媒體實驗室資料科學家喬伊‧波拉維尼。(Source:Joy Buolamwini

矽谷積極推銷 AI 給警察,有歧視的服務竟能上線?

就波拉維尼的專業研判,培養演算法,某種程度就像養小孩,給他讀什麼,他認知的世界就會變成這樣,這個問題,應該是開發團隊沒給夠多元種族與性別的資料導致的。只要花點時間就可以修正。難道工程師都沒發現嗎?這樣的服務為何要上線?

波拉維尼繼續追查下去,發現許多矽谷公司,正企圖推銷這樣的臉部辨識 AI 給警局。最積極的是亞馬遜,它有一個智慧鏡頭服務 Ring,用來替民眾監控拍攝在住家周圍閒晃的陌生人影像。而目前,也已有約 500 家美國各地警局和 Ring 連線合作,善用這個鏡頭拍下的影像,來協助警察去抓路上偷車或闖空門的嫌犯。最近,Ring 更開始申請臉部辨識AI的專利,看來結合人工智慧分析來協助查案,就是下一步。但是一旦發生,問題肯定很大。為什麼?

因為,在原有的設計思惟沒變下,只有白人嫌犯會被正確辨識,黑人與女性的抓錯人機率則會很高。換句話說,這些智慧 AI 和許多美國民眾深惡痛絕的街頭惡警所做的事:對黑人與白人態度大不同,某種程度是一樣的。這些惡警在黑街裡,往往看到一個黑人跑出來就先開槍,也不想花時間查看這個黑人是否手上有槍,或根本只是個晚歸上班族?因為在他們心裡,黑人大多數都是罪犯,不需要仔細看。但如果在黑街裡跑出來的是一個白人,通常就會花時間檢視對方身分。

2016 年,波拉維尼在 TED 上演講公開指出矽谷存在的演算法偏見,慢慢集結了一些有人權意識的資料科學家,以及亞馬遜股東等,一起呼籲亞馬遜停止將這服務提供給執法單位。但這些還是沒阻止這間企業放手。

直到今年佛洛伊德事件發生,成為全美關注焦點;美國國會也開始舉辦臉部辨識 AI 新法案的聽證會,一個個被點名到的矽谷公司才開始亡羊補牢。IBM 指出將退出此市場;微軟與亞馬遜則強調現階段,公司絕不賣臉部辨識 AI 給警察。為什麼他們如此被動?一個容易理解的原因是,承認演算法有漏洞,不就證明這產品並不成功,應該停止使用?對他們的業務影響不小。

有些人應該會想到,台灣用科技防疫的成果斐然,是否未來過度仰賴,也會衍生出誤判問題?首先,這些矽谷公司和警方合作的是日常例行查案,和防疫這種極端狀況大不同。不過,當有一天,台灣防疫開始善用各類 AI,結果因為數據偏見,專門去鎖定台商或從中國入境的旅客,這樣的偏差,當然還是不能被容許。

更正面的做法,也許是開發最懂台灣人的 AI 服務。畢竟未來 AI 會協助人類很多事情,包括判別健康狀態、身分甚至發薪水,沒人想要用把自己族群當次等人的 AI 服務。不是嗎?

(本文由 遠見雜誌 授權轉載;首圖來源:shutterstock)

延伸閱讀: