當 AI 也開始戴起有色眼鏡──有偏見的 AI 是如何產生,又會造成什麼影響?

作者 | 發布日期 2018 年 06 月 24 日 12:00 | 分類 AI 人工智慧 , 科技教育 line share follow us in feedly line share
當 AI 也開始戴起有色眼鏡──有偏見的 AI 是如何產生,又會造成什麼影響?


大家對人工智慧(AI)的普遍印象,可能是理性、客觀,或不近人情。之所以會有這些印象,除了 AI「冷靜思考下決定征服全人類」的電影層出不窮之外,還有很大的原因來自 AI 做出決定的憑據:數據(data)。當人們要求眼見為憑的「有圖有真相」,AI 只相信「數字會說話」。冷冰冰卻比千言萬語更接近事實的數據,是 AI 的行動原則,也是我們大多時候相信 AI 能做出不帶偏見的決定的原因。畢竟,還有什麼能比數據更客觀呢?

然而,近期專家發現,AI 其實也會帶著有色眼鏡看人。如果我們一味相信帶有偏見的 AI 提供給我們的資訊,可能會不知不覺間成為種族歧視和性別歧視的幫兇。事實上,Google 的 AI 研究業務負責人約翰‧詹南德雷亞(John Giannandrea)即表示,比起 AI 淘汰人類,他比較擔心有偏見的 AI 帶來的社會隱憂。

在探討不客觀的 AI 是不是嚴重威脅前,我們先來看看 AI 的有色眼鏡到底從何而來。

AI 有偏見是因為上梁不正下梁歪?

AI 不是一開始就有歧視,而是學習而來的。

現今的 AI 大多採用監督式學習(supervised learning)。也就是說,它會依照工程師提供給它的訓練資料(training data)推斷出規律,再把規律套用在未知的資料上。打個比方,將紅底黑斑的蛇標示有毒,紅底無斑的蛇標示無毒,綠底黑斑的蛇標示有毒,然後把這筆資料給 AI,則 AI 可能會將從未看過的黃底黑斑的蛇判為有毒。

這套演算法的原則是由 AI 自行進行學習,乍看之下很有效率,不過一旦提供的資料不夠全面,或工程師沒有想方設法避免歧視,AI 推導出的結果便很容易帶有偏見。

其中一種因為訓練資料有所偏頗,導致 AI 帶有歧視的程式是臉部辨識系統。麻省理工學院(MIT)的研究員喬伊‧布奧拉姆維尼(Joy Buolamwini)指出,由於提供給 AI 訓練資料不夠多樣化,有 3 家著名科技公司的臉部辨識系統在分辨深膚色女性時,都有 20% 以上的出錯率。相反的,可能因為 AI 一開始訓練時即得到大量相關資料,該 3 家系統在辨別淺膚色男性時只有 0.8% 的出錯率。另一個著名的例子是在 2015 年,Google 的影像辨識系統將非裔網友標示為「大猩猩」,隨後為此道歉。很明顯的,兩個例子裡辨識系統皆難以辨別出深膚色的人種,使得 AI 的推斷結果帶有種族歧視。

然而,即便想辦法提供多樣化的資料給 AI,人類文化裡無形的歧視,一樣會培育出有偏見的 AI。電腦科學家喬安娜‧布萊森(Joanna Bryson)和同事研究發現,即便他們沒有特別在提供的訓練資料(以文字為主)上標示關聯性,AI 會自動判定白人名字和愛情、微笑等正面字彙有關,有色人種的名字則和癌症、失敗等負面詞彙有關──明顯是受到人類呈現在文字裡有意無意的歧視影響。

除此之外,冷冰冰的數據也會讓 AI 帶有歧視。布萊森表示,由於現實社會中牙醫助理和圖書館員由女性擔任的比例較高,她們發現 AI 會自然而然的判定這兩種職業和女性的關聯性較強,形成無形的性別歧視。波士頓大學(Boston University)和微軟的科學家也提到,現實生活中的性別歧視和職業上的性別不平等,導致 AI 判定擁有男性化名字的人比擁有女性化名字的人更會寫程式。

如此看來,AI 也不是那麼理性客觀,甚至可以說非常容易就「學會」對人不對事。但是,僅僅是有偏見的 AI,能對我們生活造成什麼影響呢?答案是:處處有影響。

有偏見的 AI 會讓你找不到工作?

AI 早在不知不覺間滲入人們生活的各個層面。除了社群網路、服務業、交通等為人所知的領域外,如今公司徵才、金融業、司法機構的背後也可能有 AI 介入。公司用有偏見的 AI 決定不要雇用女性當程式設計師,銀行用有種族歧視的 AI 決定不要貸款給有色人種,監獄用不客觀的 AI 決定不要給囚犯假釋等情況皆有可能發生、或是正在進行。事實上,非營利網路新聞媒體 ProPublic 即報導美國司法機關使用名為 COMPAS 的 AI 來預測犯人的再犯率,並依結果來判定要不要假釋囚犯。ProPublic 指出,由於該 AI 對少數族群帶有偏見,可能使司法機關在無意間迫害弱勢族群囚犯。

由此可知,有偏見的 AI 不但影響了我們的日常大小事,還很有在我們毫無察覺的情況下經由使用該 AI,或被該 AI 擅自貼標籤,而使他人和自身受到不平等的對待。

消弭 AI 偏見之路

既然有偏見的 AI 是個隱憂,專家們自然想要排除它的歧見。有的人去除資料裡不必要的元素(如讓 AI 篩選履歷書時,去掉性別和種族等個人資料),有的人在 AI 的判定結果上添加條件(如讓 AI 過濾應聘者時,能遵守性別配額),還有人致力於推動訓練資料的透明化,讓他人來審視該資料是否有造成 AI 偏見的可能。

然而,即便不知道種族或性別,AI 還是可以藉著其他因素(譬如姓名、住處)辨別男女和人種。如果讓 AI 保障女性或有色人種的錄取率,則可能會引發對男性不平等的爭議。訓練資料的透明化更由於各家 AI 開發公司不想外洩商業機密而難以執行,即便公開,也可能因為程式太難被外人理解,無法發揮監督的作用。

在消除 AI 歧視的路上,可說是困難重重。即使如此,我們還是應該不吝於支持、推動創造毫無偏見的 AI,才能真正保障我們的權益。

(首圖來源:pixabay

延伸閱讀: