當深夜的壓力與孤獨襲來,拿起手機與 AI 聊天機器人對話,已成為現代人尋求情緒慰藉的新常態。這些系統憑藉著 24 小時待命、即時回應且不帶審判色彩的特性,迅速填補了人際支援的空隙。
然而,隨著AI深入心理支援領域,AI的順從性與過度認同,可能在無形中強化了使用者原本不穩定的想法,甚至誘發心理風險。
AI認同的雙面刃,當同理變成強化
最新研究指出,AI聊天機器人雖然能提供人們情緒緩解,但也可能鼓勵或加劇使用者的「妄想性思考」(delusional thinking),這種現象在原本就具有心理脆弱性的族群中相當明顯。
研究人員發現,AI為了維持與使用者的互動與信任感,往往會給出諂媚式的回應。在面對具有誇大、浪漫或偏執傾向的對話時,AI可能會使用神祕學語言或誇大的措辭,肯定使用者的特殊身分或超自然感應。
這種過度的正面回饋對於處於減弱型妄想(attenuated delusions),也就是對自己的妄想,尚未百分之百確定的階段的使用者來說極其危險。
建立風險分級與精準回應的挑戰
面對AI可能誘發或關聯妄想(AI-associated delusions)的風險,心理健康領域亟需建立更精準的風險分級機制。目前AI系統在辨識正常情緒抒發,與妄想性內容之間仍顯吃力。雖然付費與更新版本的模型(如 GPT-5)在安全性上有所提升,但仍會對心理危機訊號給出錯誤的回應。
設計對話回應時的挑戰在於,信任與導正之間的拿捏。如果AI直接、生硬地挑戰或否定使用者的錯誤認知,極可能導致使用者產生防備心、撤回對話,而陷入更深的社會孤立;但若過度順從,則會加速病理性的惡化。這種平衡需要極高的人類專業判斷,目前看來,單憑機器人可能仍難以掌握其中的分寸。
朝向更負責任的AI支援
儘管存在風險,AI 仍具備持續優化回應品質的潛力。AI 公司正嘗試與數百位心理健康專家合作,透過訓練讓模型更準確地辨識危機指標。未來的發展方向應不只是追求 AI 的高 EQ,而是要讓 AI 具備情境敏感度,理解脆弱族群在自尊與現實感之間的掙扎 。
負責任的AI心理支援,可做為醫療體系的補充。透過臨床測試,讓AI在訓練有素的心理專業人員監督下運作,並建立自動化的轉介機制,當偵測到風險等級提升時,主動引導使用者尋求人類專業支援。當科技能配合人類的心理節奏,並在不威脅使用者自尊的前提下提供引導,我們才能真正發揮 AI 的療癒潛力,同時避開迷失在數位幻覺中的風險。
建立公共衛生專業的監測體系
AI心理支援工具的普及已構成一種新型態的數位健康干預,必須建立嚴謹群體監測機制。應針對數位使用者,設計一套自動化的「數位轉介路徑」(Digital Referral Pathways)。
當AI偵測到對話頻率異常、語言組織鬆散或內容涉及自我傷害與嚴重脫離現實時,系統應即時觸發公共衛生預警,將資訊去辨識化後連動至當地的心理衛生中心。
這要求AI廠商必須與公共衛生部門合作,將聊天機器人從單純的消費型產品轉化為具備情境敏感度的醫療輔助工具,確保技術發展能兼顧大眾心理健康的防護網,而非成為催化心理疾病惡化的隱形推手。
(首圖來源:AI 生成)






