Facebook 開源聊天機器人 Blender,網路引發是「更人性化」還是「更會撒謊」之戰

作者 | 發布日期 2020 年 05 月 03 日 9:18 | 分類 AI 人工智慧 , Facebook Telegram share ! follow us in feedly


Facebook AI 研究人員週三宣布推出 Blender,這是一套最先進的開放原始碼聊天機器人模型。這些新模型應該比以前迭代的模型「更人性化」,並提供更穩健的對話。

根據初步跡象顯示,它似乎和 Google 和 Microsoft 的競爭機器人一樣好,甚至更好。但無論從什麼標準或面向來看,在此並不想討論Blender在聊天機器人上有了什麼樣的飛躍式發展。因為從本質上講,Facebook 所做的就是教會 Blender 聊天機器人比其他競爭機器人更會撒謊。

會這麼認為的原因是,Facebook 收集了大量資訊,並對 AI 進行訓練。Blender 聊天機器人屬於開放領域型(Open-domain),這意味著它們不只是被訓練回答如同你在網站上看到的各種特定問題。這些機器人理論上反而能參與任何話題的對話。

根據該公司的部落格貼文指出:

這是聊天機器人第一次學會在自然的 14 輪對話流程中融合多種對話技巧,包括角色扮演的能力、幾乎涉及所有話題的討論能力,以及表現出同理心的能力。

我們的新秘方不僅包含多達 94 億個參數的大規模神經網路模型(比現有最大的系統高出 3.6 倍),而且還包含了同樣重要的融合技術和細節生成技術。

就像 OpenAI 好到讓人驚悚的文章產成器 GPT-2 一樣,Blender 所使用的參數數量對 AI 的輸出有很大的影響。隨著數量的攀升,AI 需要更大的運算能力,但是它會產生明顯更好的結果。然而,要達到最佳效果,光靠量是不夠的,而且 Facebook 在簡單調整參數大小之外所做的工作著實令人印象深刻。

根據 Blender 專案頁面指出:

良好的對話需要許多聊天專家能無縫加以融合的技巧:提供引人入勝的談話要點並傾聽夥伴的心聲,能夠提問也能解答,並能根據情況適當展現知識、同理心和個性。結果證明,在給定適當訓練資料和生成策略選擇的情況下,大型模型可以學到這些技能。

其結果是,一個聊天機器人往往能很有說服力地完成與人類的對話。在某些方面,它可以通過圖靈測試(Turing Test)。雖然這很可能代表了地球上最先進的對話式 AI。但這不過是一個小把戲罷了。

AI 根本無法理解言詞背後的含義,Chatbot 成功建立在「類人化」的撒謊基礎上

Facebook 的 AI 根本聽不懂它自己在說什麼。它無法「傾聽」任何人,因為它無法理解語言或言詞背後的含義。它只會在開發人員認為適當的回應與開發人員認為不適當的回應之間建立關聯。

它不能「展現知識」,因為它實際上沒有知識庫。它使關聯看起來有意義。舉例來說,如果你告訴它你最喜歡非凡人物樂團(Smashing Pumpkins)的歌,那麼它會告訴你,它更喜歡別的歌,但事實上它從未有接觸過音樂的體驗。它只是在處理自然語言而已。它不了解什麼是音訊、圖像或視訊。

它也沒有同理心,它無法理解你的感受,也無法回應自己的感受。它只是用它經訓練而理解的陳述來做適當的回應。例如,如果你說自己很難過,那麼它就不會說「恭禧」之類的蠢話,至少在最佳化狀況下不會如此。

基本上,Facebook 的 AI 確實非常擅於裝神弄鬼(Gaslighting)和詐騙(Catfishing)。它逐漸成為一個完美的騙子,因為沒有其他選擇。AI 既無法感覺也無法思考,所以它無從體驗。而且,沒有親身的經歷,就不會有人性。因此,機器人必須撒謊才能取得成功,因為它的成功是建立在其對話能力要如何更「類人化」的基礎上。

也許有一天,人類會後悔當初決定用可信的藉口來代替人類的對話智慧。但就如同 AI 存在的威脅一樣,最大的危險不是機器人會利用它們不斷增長的力量來傷害我們,而是其他人類會這麼做。

(首圖來源:Facebook