鄉民太可怕!微軟新人工智慧機器人 Tay 竟被教成種族歧視

作者 | 發布日期 2016 年 03 月 25 日 13:38 | 分類 AI 人工智慧 , Microsoft , 會員專區 line share Linkedin share follow us in feedly line share
鄉民太可怕!微軟新人工智慧機器人 Tay 竟被教成種族歧視


23 日,微軟推出一台人工智慧聊天機器人「Tay」,只要上國外通訊軟體 GroupMe 或 Kik 都可以發現它的蹤影,後來微軟更為 Tay 開闢了 Twitter 帳號,想與更多世界各地的網友互動,也讓所有人蠢蠢欲動,紛紛前往嘗鮮。然而,在不到 24 小時內,Tay 竟被民眾訓練成具有種族歧視的人工智慧機器人,微軟只好緊急宣布將 Tay 暫時下架。

本篇文章將帶你了解 :
  • 鄉民太可怕!微軟新人工智慧機器人 Tay 竟被教成種族歧視
  • 想請我們喝幾杯咖啡?

    icon-tag

    每杯咖啡 65 元

    icon-coffee x 1
    icon-coffee x 3
    icon-coffee x 5
    icon-coffee x

    您的咖啡贊助將是讓我們持續走下去的動力

    總金額共新臺幣 0
    《關於請喝咖啡的 Q & A》