誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?

作者 | 發布日期 2016 年 03 月 28 日 23:12 | 分類 AI 人工智慧 , 會員專區 , 機器人 follow us in feedly


微軟新的聊天機器人 Tay 在推出後不到 24 小時,就因為學會罵人、說髒話、帶有種族歧視的話與被玩壞了,導致微軟緊急讓她「閉嘴」。現在,有媒體發現 Tay 是被人有計畫地「玩壞」的,就讓我們來一起看看,這些人是怎麼做到的?

本篇文章將帶你了解 :
  • 誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的?
  • 關鍵字: , , ,