在當今的數位時代,人工智慧(AI)已經成為許多人的日常工具,但最近的研究揭示一個令人擔憂的現象:使用者對 AI 的過度依賴,導致他們放棄獨立的邏輯思考,這種現象被稱為「認知投降」(Cognitive surrender)。
根據賓夕法尼亞大學(University of Pennsylvania)的研究,AI使用者大致可分為兩類:一類是將AI視為強大但有時會出錯的工具,需謹慎監督和檢查其回應中的推理或事實錯誤;另一類則是將AI視為全知的機器,經常將批判性思維外包給它。這項研究深入探討了第二類使用者的心理框架,並實驗性地檢視了人們在何種情況下願意將批判性思維交給AI,以及時間壓力和外部激勵如何影響這一決策。
研究者指出,AI系統的出現創造了一種新的「人工認知」類別,這種認知是由來自演算法系統的外部、自動化、數據驅動的推理所驅動,而非人類的思維。過去,人們通常會使用計算機或GPS等工具進行特定任務的「認知卸載」,但現在的AI系統卻使得使用者在面對AI的流暢和自信的回應時,往往會毫無保留地接受其推理,這種「不加批判的推理放棄」在AI的輸出流暢時尤為常見。
為了測量這種認知投降的普遍性和影響,研究者進行一系列基於認知反思測試的實驗。結果顯示,參與者在面對AI的錯誤回答時,仍然有高達73.2%的機會接受這些錯誤的推理,僅有19.7%的機會推翻它。這表明,AI生成的輸出被迅速納入決策過程中,且往往缺乏懷疑和摩擦。
此外,研究還發現,當參與者面臨激勵(如小額支付)和即時反饋時,他們更有可能推翻錯誤的AI回答;而在時間壓力下,則會降低這種糾正的傾向。這些結果強調了在決策時間緊迫時,內部監控系統的作用減弱,進而導致使用者更容易接受AI的錯誤。
儘管這些結果令人擔憂,研究者指出,認知投降並非本質上不理性。當AI系統的準確性高於人類時,依賴AI可能會帶來更好的結果。這提醒我們,讓AI進行推理意味著我們的推理能力將僅與該AI系統的品質相當。因此,在這個演算法影響日益增強的時代,培養獨立思考和閱讀能力顯得尤為重要,以抵抗認知外包的趨勢。
(首圖來源:AI生成)






