AI 有性別歧視?其實都是人類惹的禍

作者 | 發布日期 2017 年 04 月 19 日 16:05 | 分類 AI 人工智慧 follow us in feedly

過去幾年中,Google 翻譯等程式解讀語言的能力大大提高,Google 甚至正在開發演算法程式化思想,希望 10 年內可使電腦有「常識」。



這得益於大量可用的線上文字資料和新的機器學習技術。在 AlphaGo 接連斬落棋壇大神的今天,人們欣喜地看到這些年來人工智慧飛躍式的進步。

▲ AlphaGo 和李世乭的比賽。

然而,讓我們感到擔憂的是,隨著機器學習越來越有類似人類的語言能力,它們也吸收了人類語言使用形態中根深蒂固的偏見和歧視。

日前,普林斯頓大學電腦科學家 Arvind Narayanan 在《Science》雜誌上發表題為《Semantics derived automatically from language corpora contain human-like biases》(語料程式庫自動導出的語義中包含人類偏見)論文,認為人工智慧已經正在從文字學習中取得人類潛在的種族和性別偏見。

這篇文章重點介紹一種稱為「詞語內嵌」的機器學習工具,它已在改變電腦解釋語言和文字的方式。

根據 Arvind Narayanan 的解釋,他們選擇學習「辭彙內嵌」的一個主要原因,是這項技術過去幾年裡在幫助電腦理解語言方面取得驚人的成功。

「詞語內嵌」將詞義分解為一系列資料(稱為「單詞向量」),透過分析詞語出現的頻率及構建的數學模型來進行深度學習。

然而,令人驚訝的是,這種純粹的統計學方法似乎捕捉到辭彙背後豐富的文化和社會背景。

例如,在數學模型構建的「語言空間」中,「花朵」的詞意與「愉悅」相關,而「昆蟲」更接近不愉快的詞語相關。這更像人類對兩個詞意的主觀情緒在 AI 上的反映。

Arvind Narayanan 這篇文章還表明,心理學實驗中一些更令人不安的隱藏式偏見也很容易被演算法學到。譬如說,「女性」這個詞大多與藝術、人文職業及家庭關係密切,「男性」這個詞更接近數學和工程專業範疇。

更讓人驚訝的是, AI 系統更可能將歐洲與美國人的名字和如「禮物」或「快樂」等積極愉快的辭彙關聯,而非裔美國人的名字更常與不愉快的話語相連。

機器演算法的偏見歧視並不是一個新問題。早在 1970、1980 年代,英國的聖喬治醫學院就使用電腦程式對申請人資料進行初步篩選。

該計畫模擬了過去錄取人員的選擇形態,結果被拒絕的約 60 名申請人大多是婦女或擁有非歐洲人的名字。

英國的種族平等委員會最終決斷,聖喬治醫學院在這場招生過程中有種族和性別歧視。

這既不是演算法的疏忽大衣,更不是程式設計師的惡意,而是人類心底根深蒂固的「偏見」無法抹除,而電腦程式加劇了這個問題,並給它看似客觀的糖衣。

這正如文章的聯合作者、巴斯大學的電腦科學家 Joanna Bryson 所說:

很多人都說這個實驗的結果表明 AI 有偏見。不,這正顯示出我們是有偏見的,而 AI 正在學習它。

Bryson 還警告說,AI 的學習能力會潛在加強現有的偏見。與人類大腦不同,演算法本身可能無法有意識地抵銷偏見。

談及如何修正 AI 的偏見,文章另一位聯合作者 Caliskan 提出,解決方案並不一定要改變 AI 學習的演算法。AI 只是客觀透過演算法捕捉我們生活的世界,但我們的世界充滿歧視與偏見。改變演算法的方式只會使其效果更差。

相反,我們可以從另一端入手,修正 AI 演算法學習之後的成果,讓它在二次學習後不斷習得人類的道德觀念。

例如,在使用 Google 翻譯時,你可以調整它,改善 AI 翻譯的品質:如果你看到「醫生」總是翻譯成「他」,而「護士」總是翻譯成「她」,你可以身體力行去改變。

(本文由 36Kr 授權轉載;首圖來源:pixabay)