
人工智慧(AI)已經不是什麼遙不可及的未來科技,從寫作、翻譯到客服,它早就成為我們工作與生活的一部分。但你有沒有發現一件事:剛開始和 AI 聊天時,它總是回答得頭頭是道,讓人驚呼「也太聰明了吧!」
但一旦對話拉長、你問得更深入,AI就開始卡住、兜不回來,甚至出現自相矛盾的情況。這並不是你遇到了Bug(程式錯誤),也不是你問得太難,而是一個所有語言模型都面臨的通病。
根據Microsoft和Salesforce最新研究,這種越聊越不對勁的現象,其實是語言模型在對話中普遍存在的結構性問題。研究團隊模擬了20萬筆對話,測試了包含GPT-4.1、Claude 3.7、Gemini 2.5 Pro在內的15種主流模型。
結果發現,這些模型在第一次對話中的表現非常出色,成功率高達90%;但一旦進入第二次、第三次……成功率就像跳水般下降,只剩下約60%。更令人吃驚的是,這個問題幾乎無法靠目前常見的技術調整解決,也讓人開始反思:我們所謂發展快速先進的AI,真的準備好成為對話中的夥伴了嗎?
AI對話為什麼越聊越糊塗?
你可能以為AI出錯,是因為它記不住前面的內容。但實際上,問題的關鍵不在記性不好,而是「太急著表現」。研究指出,當語言模型在對話中接收到不完整的資訊時,它往往會急著下結論,就像學生考試時還沒看完題目就開始寫答案。結果是,前面的假設錯了,後面的邏輯也一路歪掉。不但無法修正,還會自我堅持,繼續補充一堆看似合理、其實錯得離譜的細節。
這種現象讓人聯想到人類的「強辯」行為,但AI的版本更棘手,因為它不具備我們的懷疑機制。我們人類如果說錯話,有時會停下來想想:「欸,好像不太對?」然後修正,但AI模型目前還做不到這一點。它們無法意識到「我是不是不確定這件事?」一旦答錯,就一路錯到底。
這也顯示一個關鍵問題:語言模型目前的設計邏輯,還是偏向一次性任務。可惜,現實中的對話並不是這樣進行的。我們經常是一邊說、一邊釐清需求,問題是模糊的、資訊是漸進式的。
改參數、加推理,為什麼都沒用?
遇到問題,工程師們當然會立刻想:「是不是參數設錯了?」於是研究團隊試了所有常見的調整手段:調整溫度(temperature)參數(讓回答更保守或更冒險)、延長記憶長度、提升推理模組的能力等等。但這些努力,幾乎都無法明顯改善模型在多輪對話中的表現。換句話說,這不是模型參數調得不夠好,而是架構上的天生缺陷。
這背後的問題,其實出在訓練邏輯。過去語言模型的訓練大多使用單次問答的資料:一句話問、一句話答,任務清楚、資訊完整。但實際生活中,深入多次對話才是常態,而且常常一開始就資訊不清、問題不明。模型不習慣在模糊中摸索,就像一個只會背答案的學生,突然被拉去參加即興辯論比賽,自然是招架不住。
未來如果要讓AI成為真正的對話幫手,我們也許不能再把訓練重點放在「更準確地回答」,而要轉向訓練它「更懂得等待與釐清」。舉例來說,模型應該學會辨識使用者問題的不確定性,並主動反問:「你是指這個意思嗎?還是那個?」也許它還該學會「不急著給答案」,而是試著引導對話走向更清楚的方向。這才是對話真正的本質,而非只是問與答的機械式循環。
這次的研究結果,打破了我們對語言模型的想像。表面上看,AI越來越能模仿人類語言、理解語意,但當我們拉長對話、要求它「聽懂人話」,問題就浮現了。AI聰明沒錯,但還不夠謙虛、不夠小心,也不夠願意說「我不知道」。這反而讓我們更理解了人類對話的精妙之處:我們不只是會說話,而是懂得等對方說完,懂得保留模糊,也懂得在必要時改變想法。
下一步的語言模型發展,或許該從「更會講」轉向「更會聽」;從「給答案」轉向「與人探索」。要做到這一點,還有很長一段路要走,但這也正是我們讓科技真正貼近人性、創造價值的關鍵所在。
(首圖來源:AI 生成)