遊戲裡傳訊「幹得漂亮」的玩家,居然是機器人?

作者 | 發布日期 2021 年 08 月 29 日 0:00 | 分類 AI 人工智慧 , 軟體、系統 , 遊戲軟體 line share follow us in feedly line share
遊戲裡傳訊「幹得漂亮」的玩家,居然是機器人?


玩家在遊戲會遇到笨或聰明的對手(AI 玩家),有時候槍法神準,有時走位匪夷所思,但分辨它們其實很簡單,無論如何讚賞或罵它們,都不會有回應,因大俠總是低調。不過這種情況可能改變,不久後常亂殺一通的高級 AI,很可能一邊玩一邊說出「幹得漂亮」擾亂隊友,並不會增加遊戲體驗。

《衛報》一篇〈Think, fight, feel: how video game artificial intelligence is evolving〉預示,以後我們或許分不清遊戲玩家是真人還是電腦了,它們可能會在你投降時鼓勵你:穩住,我們能翻盤。

但這遠遠不夠。

今年 5 月Sony CEO 吉田憲一郎發表有意思的聲明:人工智慧研究部門 Sony AI 將與 PlayStation 開發者合作,創建 AI 玩家。 這沒啥新意,關鍵是他提到「透過利用強化學習,我們正在開發成為玩家對手或同伴的遊戲 AI。」強化學習是機器學習領域之一,人工智慧能有效自學再反饋。

簡而言之,AI 玩家將模仿人類玩家。某種程度來講,它們會思考。這只是人工智慧對電子遊戲不斷反覆運算和發展的最新例子。隨著開放世界遊戲越來越複雜龐大,擁有數百個角色和許多主支線故事。開發人員必須構建能產生智慧、有反應、有創造力的角色應付突發情況的系統。

開發商 Monolith 創建廣受好評的 Nemesis AI 系統,讓 AI 敵人記住與玩家的戰鬥過程,然後製造血腥仇恨,也就是說遊戲角色不再健忘,而會記仇。最近育碧《看門狗》為玩家和互動過的倫敦市民都寫出故事、人際關係和日常生活,如果有天玩家救了一個角色,最好的同伴很可能會在隔天加入玩家陣營。遊戲角色不光記仇,也會報恩。

▲ 《看門狗》。(Source:Epic Games)

如何自動隨機讓遊戲角色和玩家互動和發生故事其實不是難事,文本冒險遊戲《AI Dungeon》使用 OpenAI 自然語言建模器 GPT-3 創建新敘事體驗。也就是說,電腦自己會寫故事了。

不過人工智慧領域還有多樣問題,主要是女性和有色人種比例不高。紐約大學 2019 年研究發現,重大活動發言的人工智慧教授 80% 是男性,Facebook 人工智慧研究人員只有 15% 是女性,Google 只有 10%。科技業有色人種統計數據更糟:Google 只有 2.5% 員工是黑人,Facebook 只有 4%。這種同質化工作文化的風險在於,性別和種族偏見很可能影響 AI 演算法,產生的結果會複製根深蒂固的不平衡和偏見。

過去五年有很多這種例子,如有些臉部辨識系統會歧視有色人種,或人工智慧招聘工具表示更喜歡男性應徵者。

電子遊戲開發也有類似問題,如果未來看到人工智慧生出多樣化角色和故事,開發人員是否也要考慮讓團隊多樣化呢?電腦自己寫的故事和劇情,會不會總是兩個美國男人的故事?雖然現狀不太樂觀,不過遊戲界意識到這個問題,開始解決了。

Uma Jayaram 是美國藝電公司(EA)創新與應用研究團隊 SEED 總經理,身為女性主管,她自然支持多樣性。另外身為有影響力的科技企業家,她曾從事雲端計算、虛擬實境和大數據及人工智慧領域工作,身分、影響力和工作屬性讓她尋求組織自己的全球團隊。最後她的團隊成員位於瑞典、英國、加拿大和美國,並有不同性別、種族和文化。 她說:

多元化團隊能融合多種觀念,代表產品(遊戲)的可能性也更大。標誌性遊戲可讓我們眼光廣闊,識人知人,增強同理心。電子遊戲某種程度是物理世界的延伸,是人們消磨時間體驗快樂的地方,這種體驗可回溯到自我和社群集體意識。面對絕佳機會,我們有兩種方式引入多樣性:讓設計和構建這些世界的團隊多樣性,以及讓正在創建的世界和居民達成多樣性。

▲ Uma Jayaram。(Source:Businesswire)

EA 正在研究開發系統,透過機器學習從影音複製臉部表情、皮膚和身體動作等,不再需要演員負責動作捕捉。理論上講,這會擴大遊戲可產生的性別和種族範圍。Jayaram 表示,EA 致力於專案使用多樣化數據,還考慮使用玩家生成的內容,並允許玩家透過智慧手機或鏡頭捕捉自己的臉和表情並上傳到遊戲,製作獨特的頭像。

這種小功能我們不陌生,關鍵是願不願意上傳自己的臉。強調多樣化數據的重要性,是因糾正大眾對人工智慧的誤解:某種程度客觀,因是計算後的結果。但演算法依賴數據,如果資料是單人口統計數據,就會反映群體的偏見和盲點。

「我們習慣把人工智慧看成物理引擎或多人遊戲代碼,有時看成幕後技術」,人工智慧研究員和遊戲開發者 Michael Cook 說。「但今天的人工智慧是創造性工作的一部分,控制《模擬人生》AI 的行為和相處;它會在《卡德洞窟》(Caves of Qud)和《Ultima Ratio Regum》這類遊戲產生文化和宗教,也是《看門狗》政治聲明的一部分。人工智慧工程師對玩家的責任與編劇和設計師一樣大。他們能創造快樂體驗,也可製造傷害,即便並不負責劇情編寫。如最近文字冒險遊戲《AI Dungeon》就在沒有任何警告的情況下生出可能對玩家造成傷害的故事。」

▲ 《Ultima Ratio Regum》。(Source:影片截圖)

微軟劍橋人工智慧研究團隊正在進行幾項機器學習和遊戲研究,包括 Paidia 專案,研究強化學習對遊戲人工智慧代理的應用,如 AI 代理可與人類玩家合作。

微軟還看到玩家建模潛力──人工智慧系統觀察人類玩家行為學習如何行動和反應。只要擁有廣大的玩家基礎,就能成為增加 AI 學習系統數據多樣性的方法。微軟劍橋首席研究員 Katja Hofmann 說:

下一步將是經過訓練以提供更多樣化或更人性化的角色。電腦玩家向人類玩家學習是最具挑戰性的場景之一,但也最令人興奮。

和上述幾位遊戲人士觀點類似,Katja Hofmann 也強調:人工智慧技術不會自動做出多樣化遊戲體驗。開發者和創作者需選擇如何使用人工智慧,選擇由此產生的角色和體驗是否反映多樣性。

不管《星際大戰》的機器人對手,或 AlphaGo 這類圍棋 AI,遊戲業都傾向將人工智慧設計成對抗系統,製造更強對手或隊友。如果眼光放遠,確實可看到其他選擇,Coder 和紐約大學教授 Mitu Khandaker 與技術專家 Latoya Peterson 一起建立 Glow Up Games 工作室,為不同觀眾製作社交敘事遊戲,團隊正在開發《Insecure:The Come Up Game》,是基於熱門 HBO 影集的手遊,讓玩家探索角色的關係。

(Source:Insecure: The Come Up Game

工作室 Tru Luv 之前創建大受歡迎的 Self-Care 應用程式,如今正在開發反映公司多樣化、進步和支援性工作室文化的人工智慧技術。創始人 Brie Code 說公司目前有三分之一黑人、原住民和有色人種,三分之二女性,決策團隊是 100% 女性,董事會是三分之一 BIPOC(黑人、原住民和有色人種)和三分之二女性,與來自巴基斯坦、突尼西亞和摩洛哥等新興發展社群的顧問和合作夥伴合作。

與 Khandaker 一樣,Code 認為多元化工作力不僅消除傳統遊戲的偏見,還可開發新互動。「多年來,遊戲業一直專注人類心理學的一小部分,非常擅長創造幫助人們感受成就感或支配感的體驗。由多元化勞動力創造的遊戲 AI 將為 NPC 和代表人類體驗的廣度和深度的體驗帶來生命。 我們會看到更多非零和體驗、更多同情心、更多情感共鳴、更多洞察力、更多超越性。我們將看到全新遊戲形式,更調動玩家創造力、熱愛和快樂感,不僅是勝利與支配感。」

▲ 多樣化遊戲代表《模擬市民》。(Source:EA)

現在遊戲主機和高階 PC 有更強大計算能力,人工智慧系統的複雜性也隨之增加。開發人員將探索自然語言處理、玩家建模和機器學習等元素,以開發富想像力、反應式人工智慧角色。唯一關鍵就是上述多樣性問題。而 Mike Cook 認為因 AI 研究領域人員結構問題,錯過很多想法和觀點。

多樣性不僅為了避免錯誤或傷害,更是新想法、不同思維方式和新聲音。遊戲 AI 多樣化意味聰明的人可將想法付諸實踐,AI 不僅以全新方式現身遊戲,還可能會有新遊戲類型出現。

回到標題,AI 像真人和玩家交流對話其實不重要,重要的是,AI 以何種身分與玩家互動。

(本文由 愛范兒 授權轉載;首圖來源:shutterstock)