如何判別 AI 出現幻覺:四個訊號出現就要 Double Check 答案

作者 | 發布日期 2025 年 11 月 23 日 9:30 | 分類 AI 人工智慧 , 資訊安全 , 軟體、系統 line share Linkedin share follow us in feedly line share
Loading...
如何判別 AI 出現幻覺:四個訊號出現就要 Double Check 答案

人工智慧(AI)的「幻覺」現象引起關注已久,AI 模型回答頗常出現,可能答案看似合理但卻是錯的或完全虛構。舉例詢問 ChatGPT 問題,得到一個聽起來不錯但全錯答案,就是 AI 幻覺。幻覺有時甚至讓人笑出來(如萊特兄弟發明原子彈),但多數狀況卻會造成困擾,特別是醫療等需要準確資訊領域。

AI幻覺定義是,當AI模型輸出錯誤、邏輯不一致或完全虛構。這種現象為生成式AI模型特有,尤其大型語言模型(LLMs)如ChatGPT。與軟體程式錯誤不同,AI幻覺並不是程式設計師錯誤,而是模型學習機率導致。

AI幻覺可分為幾種類型:

  1. 事實幻覺:當AI資訊不正確或缺乏證據,如「巴黎艾菲爾鐵塔建於1999年」,其實是1887~1889年建成。
  2. 上下文幻覺:偏離問題或打破對話邏輯時,如問「我該如何做燉菜?」卻得到「燉菜很好吃,太陽系有九顆行星」的回答。
  3. 邏輯幻覺:邏輯完全錯誤,如「如果芭芭拉有三隻貓,再養兩隻,那她就有六隻貓」,這顯然是算術錯誤。
  4. 多模態幻覺:這發生在產生多媒體的AI模型,如要求畫「一隻戴太陽眼鏡的猴子」圖,卻出現沒戴太陽眼鏡的猴子。

幻覺不僅消耗用戶對AI的信任,還可能造成危險,特別是專業人士也靠AI找答案時。為了避免AI幻覺,使用者可自行檢查:

  • 手動事實檢查:使用搜尋引擎和可信參考資料檢查AI說的聲明、名稱、日期或數字。
  • 問後續問題:要求AI詳細說明細節。如果AI無法回答或加入新回答,原始細節就可能是虛構的。
  • 要求證明:詢問AI「你能提供來源嗎?」或「你對這個答案有多有信心?」
  • 交叉比較模型:問不同AI模型相同問題。如果答案差異很大,代表至少一個模型是錯的。

 

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》