AI 模型「表現亮眼卻誤解問題」?科學家揭穿最危險的盲點

作者 | 發布日期 2025 年 07 月 30 日 11:30 | 分類 AI 人工智慧 line share Linkedin share follow us in feedly line share
Loading...
AI 模型「表現亮眼卻誤解問題」?科學家揭穿最危險的盲點

人工智慧(AI)正面臨著一個關鍵的挑戰,這個挑戰源於其缺乏足夠的上下文理解和現實世界的基礎,導致各行各業出現廣泛的問題。

儘管AI最初承諾能夠改變世界,但隨著時間的推移,許多企業發現他們的AI專案未能達到預期的效果,甚至有42%的企業選擇放棄大部分AI計劃。這一現象的根本原因在於,許多AI模型常常誤解核心問題,受到低品質或偏見數據的影響,並且未能有效融入工作流程。

德州檢察長肯·帕克斯頓在2024年9月18日宣布與Pieces Technologies達成一項前所未有的和解,該公司曾宣稱其臨床助手的嚴重幻覺率低於千分之一。然而,檢察長辦公室的調查發現,這些數據缺乏足夠的證據,最終得出結論,Pieces誤導了消費者,特別是醫院系統,讓他們相信該工具能夠以不具備的精確度總結醫療記錄。雖然沒有患者受到傷害,也沒有罰款,但Pieces同意對準確性、風險和適當使用進行新的披露,這一早期的法律信號表明,紙面上的表現與實際表現並不相同。

科學家長期以來一直警告,當前的大型語言模型存在根本性限制,這些模型只是語言使用的近似,而非真正的語言理解。這一區別在模型被應用於高度特定的環境時,尤其危險,因為它們可能誤解實際工作的運作方式。許多AI失敗的根本問題並非代碼不佳,而是上下文的匱乏。AI模型只能看到模式,而無法理解目的,這使得它們在面對複雜的業務環境時,無法正確執行任務。

AI工具的失敗往往不是因為它們的能力不足,而是因為它們缺乏文化線索、領域細微差別或時間意識,這些都是人類團隊所理所當然的。例如,在醫療治療過程中,90秒的沉默可能是一個警示信號,但在AI的轉錄中,這只是靜默的空氣;而在金融報告中,缺失的首字母縮略詞可能意味著詐欺,而對於一個訓練於公共語言的模型來說,這可能僅僅是另一個縮略詞。

Meta的首席AI科學家楊立昆也曾直言不諱地指出,當前的大型模型缺乏常識,並警告行業在未經領域基礎的情況下過快部署通用模型。他在2025年4月於新加坡國立大學的演講指出,在面對現實世界的複雜性時,僅僅依賴數據和運算能力並不足夠。

(首圖來源:AI 生成)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》