誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的? 作者 T客邦 | 發布日期 2016 年 03 月 28 日 23:12 | 分類 AI 人工智慧 , 會員專區 , 機器人 | edit 本篇文章將帶你了解 :誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的? 微軟新的聊天機器人 Tay 在推出後不到 24 小時,就因為學會罵人、說髒話、帶有種族歧視的話與被玩壞了,導致微軟緊急讓她「閉嘴」。現在,有媒體發現 Tay 是被人有計畫地「玩壞」的,就讓我們來一起看看,這些人是怎麼做到的? 本篇文章將帶你了解 :誤交損友:微軟的聊天機器人是怎麼被計畫性「攻陷」帶壞的? 這篇文章為深度內容,只有加入會員可以觀看 升級會員讓您暢讀無阻,即可查看此文章完整內容 立刻加入我們吧 科技新知,時時更新 科技新報粉絲團 訂閱免費電子報 關鍵字: Tay , 人工智慧 , 微軟 , 機器人