導入機器學習技術,暴雪打算未來用 AI 自動找出謾罵玩家

作者 | 發布日期 2018 年 04 月 06 日 23:30 | 分類 電子娛樂 , 電競 follow us in feedly

只要是曾玩過需要團隊合作遊戲的玩家,應該都有碰過網友口出惡言的經驗,這些言語為同場參與的玩家都帶來了不好的遊戲體驗,也因此是遊戲經營者經常必須面對的難題。



Kotaku 報導指出,知名射擊遊戲《鬥陣特攻》(Overwatch)也正在面對這項難題,遊戲總監 Jeff Kaplan 近日表示,其實團隊一直有在測試機器學習技術,試圖讓遊戲學會辨識哪些是「有毒」的語言,未來目標是不必再透過玩家檢舉才能阻擋這些行為。

即使沒有機器學習協助,《鬥陣特攻》在這方面也已經取得進展,Kaplan 指出,從 1 月的數據來看,由於遊戲檢舉及懲罰系統的變化,《鬥陣特攻》的攻擊性言論下降了 17%,檢舉系統使用數則上升了 20%。

這證明《鬥陣特攻》的檢舉系統是有用的,但還是不足以抵銷檢舉系統的「原罪」──它們的效率很慢、可能會被濫用,玩家並不總是對檢舉系統抱有信心,因此監管團隊的下一步,便是在玩家申訴前便開始捕捉不良行為。

透過機器學習,暴雪(Blizzard)正在教導遊戲 AI 其他國家的語言,長期的目標則是希望它弄清楚有毒的言論看起來像什麼,甚至能夠分清楚朋友間的「垃圾話」和網友人身攻擊間的區別。

但以目前來說,《鬥陣特攻》將 AI 先調整為應對最極端的情況──那些在暴雪的規範中,無疑必須受到懲罰的言論,而其他內容則是先標記、再針對重複犯進行懲罰。

「任何涉及檢舉和懲罰玩家的事情,你都會希望從最極端的情況開始,接著找到方式來向較輕的情況延伸。」

除了懲罰不良玩家,暴雪也和 Riot 和 Twitch 直播平台一樣,正在研究硬幣的另一面:強化良好行為。遊戲開發商都在懲罰舉動不當的玩家,但究竟該如何讓人們希望在遊戲的生態系統中成為更好的參與者?

Kaplan 指出,遊戲的通報系統經常都是「Adrian 真的很糟糕,我想懲罰他」,但「Adrian 真的是個很棒的隊友,我想獎勵他」的機制卻很少可見。

「我們已經可以開始展望未來,並討論關於正面態度的申報系統設計。」

(首圖來源:Overwatch