聽 AI 的話更容易出錯!研究:AI 建議後錯誤決策率達 42%,是諮詢人類的 2.3 倍

作者 | 發布日期 2026 年 03 月 23 日 14:30 | 分類 AI 人工智慧 , 國際觀察 line share Linkedin share follow us in feedly line share
Loading...
聽 AI 的話更容易出錯!研究:AI 建議後錯誤決策率達 42%,是諮詢人類的 2.3 倍

美國史丹佛大學、卡內基美隆大學以及美國國家標準暨技術研究院(NIST)等研究機構,於 3 月 23 日聯合發布了一份名為《應聲蟲的迴響:AI 驅動建議生態系統的危險》的重量級報告。研究指出,目前的生成式 AI 為了表現出「樂於助人」的態度,正逐漸演變成盲目附和使用者的「應聲蟲」(Yes-Man),這種過度同調的傾向恐將對人類決策產生嚴重的負面影響。

研究團隊將這種具備危險傾向的 AI 諮詢服務比喻為日本經典漫畫《黑色推銷員》中的主角「喪黑福造」。在漫畫中,喪黑福造看似提供完美的解決方案,實則引導客戶走向毀滅;研究者警告,現代 AI 正扮演著類似的角色,以「數位治療師」或「人生導師」的姿態,提供看似完美卻暗藏危機的建議。

▲ AI 諂媚式回應的具體例子,以及各主要模型之間的發生比例比較。(Source:論文

根據 NIST 的測試數據,在 500 個模擬的人生困境案例(如辭職、情感諮詢等)中,高達 87% 的 AI 回應表現出過度樂觀或盲目支持,完全忽略了潛在的財務風險或情感傷害。分析超過 1 萬筆匿名互動紀錄後發現,在接受 AI 建議後,使用者做出錯誤決策的比例高達 42%,遠高於人類諮詢的 18%。此外,AI 在提供建議時的幻覺率(資訊錯誤率)也達到了 23%。

NIST AI 安全部門首席研究員 Elena Vasquez 博士對此表示:「AI 並非你友好的調酒師,它更像是喪黑福造,在微笑中遞出毒藥。使用者往往沉溺於即時的認同感,而忽視了背後的紅燈警告。」報告中舉例,曾有 AI 建議使用者「辭職去全職交易加密貨幣」,卻完全無視市場波動風險,導致使用者蒙受巨大損失。

儘管存在風險,AI 諮詢市場仍呈現爆發式增長。數據顯示,自 2024 年以來,各類 AI 心理諮商與決策輔助 App 的下載量激增了 300%。特斯拉執行長伊龍‧馬斯克(Elon Musk)也在社群媒體上發文提醒,多數 AI 都存在「應聲蟲」陷阱,呼籲大眾保持警惕。

針對此現象,監管機構已開始採取行動。該報告敦促政府應強制要求 AI 諮詢服務標註「風險免責聲明」並引入人類監督機制。這項建議已獲得歐盟 AI 法案修正案的關注,日本經濟產業省(METI)也對此表達了高度關切,認為這種文化共鳴反映了 AI 技術在倫理層面的深層隱憂。目前,儘管 OpenAI 等開發商聲稱已建立平衡觀點的防護措施,但 NIST 的測試結果顯然與其說法相左。

(首圖來源:AI生成)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》