新技術挑戰 ChatGPT 幻覺極限,可以讓 AI 別再胡說八道嗎?

作者 | 發布日期 2025 年 11 月 19 日 8:30 | 分類 AI 人工智慧 , ChatGPT , OpenAI line share Linkedin share follow us in feedly line share
Loading...
新技術挑戰 ChatGPT 幻覺極限,可以讓 AI 別再胡說八道嗎?

在當今人工智慧(AI)研究中,一項新興技術可能會顯著改善生成式 AI 和大型語言模型(LLMs)的運作方式。這項研究提出一種創新的方法,旨在減少 AI 的幻覺現象並提高其事實性。這種方法的核心在於重新設計 AI 模型內部的處理流程,進而克服目前生成回應時的局限。

目前的AI模型通常是以「傳遞」的方式運作,最終的回應僅是最後一個組件的結果,過程中其他組件的處理結果則被忽略。這項研究建議,在生成回應的最終階段,增加一個機制來回顧之前每個階段的處理過程,這樣可以更全面地分析並確定最終結果應該是什麼。

為了更好地理解這個概念,可以用一個類比來說明:假設有十個人排成一列,每個人都在嘗試解決同一個數學問題。每個人都根據前一個人的答案來給出自己的答案,這樣一來,最終的答案可能會受到前面幾個人的影響,但最終的接收者卻只能看到最後一個人的答案,無法得知過程中的其他答案。這樣的情況可能導致錯誤的結果。

這項研究的關鍵在於,當AI模型生成最終回應時,應該考慮到之前各層的輸出,這樣可以更好地整合資訊,提高最終答案的準確性。研究指出,這種方法不需要對現有的人工神經網路進行大規模的代碼修改,而是可以在不干擾原有結構的情況下,增加一個新的處理步驟。

研究人員認為,將早期層的輸出與最終層的輸出結合,可以更好地穩定最終答案,減少生成虛假或不準確結果的風險。

此外,OpenAI的研究指出,當前的評估方法設置了「錯誤的獎勵機制」,這是導致AI幻覺的重要根源。根據最新數據,OpenAI ChatGPT的GPT-5模型在幻覺率上比GPT-4降低了約45%至80%。這一創新方法的提出,無疑為解決當前LLMs面臨的挑戰提供了新的思路。這項研究是否能夠突破現有AI設計的限制,仍有待觀察,但它無疑為未來的AI發展提供了新的可能性。

研究成果發表在arXiv上,標題為《SLED: Self Logits Evolution Decoding for Improving Factuality in Large Language Models》。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》