如何消除機器人的「偏見」?先從消除人的偏見做起

作者 | 發布日期 2019 年 03 月 17 日 0:00 | 分類 AI 人工智慧 , 機器人 , 軟體、系統 line share follow us in feedly line share
如何消除機器人的「偏見」?先從消除人的偏見做起


你有沒有想過這樣的問題:Alexa、Siri、Cortana(小娜)、Google Assistant 等虛擬語音助理,為何性別設定都是女的?

在西南偏南大會,幾位從事對話人工智慧(conversational AI)行業的女性專家表示,這當中既有偏見,又有道理。

偏見指的是,當一個助理和你對話,大部分人會更習慣助理性別是女的。因為人們期待「她」比男助理更順從、體貼。

至於道理部分,基於社會學和語言學的研究發現,說話時男性普遍更直接,女性普遍更婉轉;男性普遍更武斷(assertive),女性普遍更配合(supportive)。

多年以來,對同一種語言,男人和女人普遍形成風格迥異的運用方式。從某種程度上講,最初也是因為偏見逐漸積累,形成長期的結構性差異。

虛擬助理性別採用女性,就符合這種差異。

偏見(bias),更具體來說,聊天機器人等對話式 AI 的偏見問題,是西南偏南大會(South by Southwest,簡稱 SXSW)本場論壇的切入點。

除了性別之外,在虛擬語音助理和聊天機器人身上所能找到的偏見,還有許多種類。比如種族歧視、基於政治立場的偏見等。

專家指出,無論哪種偏見,幾乎都是人自己偏見的映射。

IBM 華生人工智慧首席產品經理阿娜米塔‧古哈(Anamita Guha)舉例,「如果你一直用叫喊的方式訓練人工智慧,那麼學到的只會是叫喊。」

科技公司 Pandorabot 創始人兼 CEO 羅倫‧坤澤(Lauren Kunze)認為,微軟早年的英語聊天機器人 Tay,就是一個人類偏見投射到聊天機器人最典型的案例。

Tay 和微軟小冰有點類似,是一個話題不限制的閒聊式機器人。Tay 採用無監督學習的方式,有一天突然被微軟的工程師上線到 Twitter,任何人都可跟它對話,教它東西──結果幾天下來,坤澤形容,Tay 被訓練成「崇拜希特勒的性愛機器人」。

「Tay 變成的樣子,不就是網際網路的樣子嗎?」她說,發生這樣的情況,人們擔心的不應該是聊天機器人的偏見,而是自己的偏見。

▲ 羅倫‧坤澤。

人的偏見是根深蒂固的,很難刨除。甚至連開發 AI 的人不注意時都會顯出偏見。

坤澤有次跟微軟集團副總裁、傑出科學家程麗麗(Lili Cheng)一起出席對話人工智慧的閉門會議,是會中唯二的女性面孔。當有人問起 IBM 華生的聲音為什麼是男性時,有人在台下吆喝:「因為男人更睿智。」坤澤說,當時自己和程麗麗都氣得直抓桌巾。

其實,華生是一套基於深度學習,面對開發者/企業端的 API,語音輸出時可整合 24 種不同的聲音。

像華生這樣多樣化設計對話人工智慧的思路,已逐漸被業界採納。

Dashbot 的高級開發客戶經理賈斯丁娜‧阮(Justina Nguyen)指出,她的客戶很多是非科技行業的大品牌公司。設計聊天機器人給客服、行銷等用戶時,這些公司並不一定要用女性的聲音,而是確保聊天機器人和企業形象一致。

就像《水底情深》女主角去的那家甜點店,男服務生為了配合甜點店的親民形象,裝出南方鄉巴佬的口音,其實他的老家明明在加拿大。

「你的聊天機器人採用哪種聲音、有什麼風格,是由你的品牌形象(persona)、你想讓消費者獲得何種體驗決定的。」阮表示。

▲ 阿娜米塔‧古哈和賈斯丁娜‧阮。

既然聊天機器人的偏見來自人的偏見,而這種偏見現階段又很難避免,我們有什麼可以做的、有哪些規則可先設立,確保開發的聊天機器人安全、盡量減少偏見呢?

坤澤的建議是:如果你做的模型是無監督學習,那麼千萬不要拿到 Twitter 這類社群網路訓練。

阮認為,與其說我們給聊天機器人(或開發它的公司)設定規則,我們更應該給用戶設定規則,告訴他們應該怎樣和聊天機器人正確對話。

古哈也很同意這觀點,「現在的小孩可說是跟虛擬助理、聊天機器人一起長大的。我們可以做個設定,如果用戶發一句指令後不加『請』字,Alexa 就不執行,你們說好不好?」

(本文由 PingWest 授權轉載;首圖來源:Unsplash

延伸閱讀: