科學家發現:賦予 AI 代理「數位人格」,能提高複雜任務的準確性

作者 | 發布日期 2026 年 03 月 06 日 7:30 | 分類 AI 人工智慧 line share Linkedin share follow us in feedly line share
Loading...
科學家發現:賦予 AI 代理「數位人格」,能提高複雜任務的準確性

相對於主流 AI 會遵循處理指令、形成回應、輸出結果、等待下一個指令等溝通風格,人類的溝通不僅經常時斷時續,還會穿插著激昂的插話、猶豫的沉默,甚至模稜兩可的話語。科學家發現,當 AI 聊天機器人被允許以更像人類溝通者的方式(例如在對話中打斷對方、保持沉默或主動發言)行事時,它會成為更有效的辯論夥伴,並得出更準確的結論。

以日本東京電氣通信大學(UEC-Tokyo)資訊學系教授清雄一為首的研究團隊提出一種框架,使大型語言模型(LLM)不必遵守既有電腦那種你來我往、輪流等待的溝通特性。而為其指派一種「個性」,讓它能不按順序、打斷對方說話,或保持沉默。結果,他們發現,除了打造出更像人類的 AI 溝通方式之外,這種彈性也可以提高複雜任務的準確性。

研究團隊首先將根據傳統心理學中「五大人格」(開放性、盡責性、外向性、親和性與神經質)的特徵整合進 LLM 之中。他們接著重新設計以文字為基礎的 LLM,以精細控制討論的流程。他們也進行了固定發言順序、動態發言順序,以及允許插話的動態發言順序等三種對話設定的比較結果。最後一種設定讓模型能計算出「緊急度分數」,進而即時掌握並處理對話。該分數愈高,AI 聊天機器人會更立即進行插話。

清雄一表示,該團隊使用「大規模多任務語言理解」(Massive Multitask Language Understanding,MMLU)基準測試中的 1,000 道 AI 推理測試題目來評估表現。當一個代理最初給出錯誤答案時,固定順序討論的整體準確率為 68.7%,動態順序為 73.8%,允許插話時為 79.2%。在更困難的情境中,當兩個代理一開始都給出錯誤答案時,固定順序的準確率為 37.2%,動態順序為 43.7%,允許插話時為 49.5%。他們因此證明了由人格特質驅動的模型比傳統 AI 聊天機器人更準確。

接下來,該團隊計畫將他們的發現應用於各種訴求創造性協作的領域,以了解「數位人格」是如何在群體決策中發揮作用。

(首圖來源:科技新報)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》