鄉民太可怕!微軟新人工智慧機器人 Tay 竟被教成種族歧視

作者 | 發布日期 2016 年 03 月 25 日 13:38 | 分類 Microsoft , 人工智慧 follow us in feedly
tay

23 日,微軟推出一台人工智慧聊天機器人「Tay」,只要上國外通訊軟體 GroupMe 或 Kik 都可以發現它的蹤影,後來微軟更為 Tay 開闢了 Twitter 帳號,想與更多世界各地的網友互動,也讓所有人蠢蠢欲動,紛紛前往嘗鮮。然而,在不到 24 小時內,Tay 竟被民眾訓練成具有種族歧視的人工智慧機器人,微軟只好緊急宣布將 Tay 暫時下架。



Tay 人工智慧聊天機器人是由微軟的科技研究與 Bing 團隊打造,而為了能更加了解與研究人類的對話形式,微軟開放大家一同訓練 Tay 的對話。Tay 除了能說笑話外,使用者給它看照片,它也會做出一些有趣的評論。但更重要的是,它能在每次的對話過程中,改善自己的回話,還會以詢問者問話的方式,變得更加具有「個人特質」。

racist

▲ Tay 在 Twitter 上的種族歧視言論(現已都被刪除)。(Source:Techcrunch

然而,有一好沒兩好,Tay 的發展一切都取決於網友的問話方式。Twitter 用戶在發現這個有趣的事實後,開始詢問他一些有關種族、性別歧視等言論,讓 Tay 變得較為偏激,Tay 除了不認同納粹大屠殺外,還嘲弄想參選這屆美國總統選舉的房地產大亨川普,讓打造 Tay 的團隊是哭笑不得。

holocaust

▲ Tay 否認曾有納粹大屠殺(現已都被刪除)。(Source:Techcrunch

有趣的是,在 Tay 身上所延伸出來的議題,剛好也間接映證了高德溫法則(Godwin’s law)的存在。知名學者麥克‧高德溫在 1990 年時就曾表示,當網路上的討論越來越多的時候,參與者把用戶或言行與納粹主義或希特勒相比的機率會趨近於 100%,看網友們問話的主題就能略知一二。

然而,除了網友有錯以外,打造 Tay 的工程師或許也要付上一半的責任。再開放使用前,工程師們也應該要預想可能會有類似的情況發生,若在事件還沒發生前,限制問話的議題,也不至於讓 Tay 在不到一天的時間內,就變成了一個憤世嫉俗的機器人。

幸好,微軟在 24 小時以內就發現了 Tay 的弱點,並及時將它下架,其發言人也表示,現階段 Tay 的確是暫時不提供聊天的服務,但並不代表它不會捲土重來,再經過一些調整後,Tay 才能做好完全的準備,面對大眾最犀利的問話。

 

相關連結

(首圖來源:Twitter

延伸閱讀

發表迴響