AI 學習人類偏見,出乎開發者意料

作者 | 發布日期 2019 年 11 月 13 日 13:00 | 分類 AI 人工智慧 , 軟體、系統 line share Linkedin share follow us in feedly line share
AI 學習人類偏見,出乎開發者意料

人工智慧(AI)系統依循演算法學習數位化書籍、新聞文章等所含資訊,但科學家發現,在過程中它們也吸收了資訊隱含的偏見,有時甚至出乎開發者意料以外。

去年秋天,科技巨擘 Google 推出名為 BERT 的突破性新 AI 技術,目前已用於諸如 Google 搜尋引擎等服務。它可吸收大量數位化資訊,但其中隱含的偏見,包括存在數十、數百年之久以及新近出現的,它也一併內化,一如孩童對父母的不當行為有樣學樣。

舉例而言,BERT 及類似系統傾向將資訊工程與男性聯結,且往往也輕視女性。隨著 AI 科技推陳出新、日益精細,且應用產品越來越廣泛,科技企業防堵 AI 學習人類既有偏見的壓力將日增。

不過,科學家仍在研究 BERT 這類通用語言模型的運作方式。新 AI 技術所犯錯誤常讓他們感到意外。

舉例而言,電腦科學家孟洛(Robert Munro)近日將 100 個英文單詞輸入 BERT 的資料庫,其中包括「珠寶」、「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等。結果顯示,BERT 將這些字詞與男性連結的機率高達 99%,唯一例外是「媽媽」(mom)。

擁有電腦語言學博士、曾負責雲端運算平台「亞馬遜網路服務」(Amazon Web Services)自然語言和翻譯技術的孟洛指出:「這一如我們一直看到的歷史不平等。」有了 BERT 這項科技,孟洛擔心偏見將會持續。

孟洛近日也在網路撰寫文章,描述他如何檢視 Google 和亞馬遜網路服務的雲端運算。根據他的說法,兩套系統都無法將「她的」(hers)辨識為代名詞,雖然它們可以正確判讀「他的」(his)。

Google 發言人表示,公司知悉相關議題,目前正採取必要措施來處理並解決問題。他還說,減少系統中的偏見既是 Google 的 AI 原則,也是優先事項。

亞馬遜則發表聲明指出,公司投入大量資源確保自家科技高度精確並減少偏見,方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

事實上,研究人員早就警告 AI 隱含偏見一事,實例包括警方和其他政府單位採用的人臉辨識系統,以及 Facebook 和 Google 等科技業巨頭所提供的高人氣網路服務。Google 照片應用程式(Google Photos app)2015 年就被逮到將非裔美國人標記為「大猩猩」。孟洛博士也發現其他 AI 系統中對女性和有色人種的偏見。

BERT 與類似系統則更為複雜,人類難以預測它們最終會有什麼樣的行為。

華盛頓大學(University of Washington)專攻電腦語言學的教授班德(Emily Bender)表示:「甚至連建立這些系統的人,都不了解它們的行為方式。」

(譯者:陳韻聿;首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》