越來越多人找 ChatGPT 和其他大型語言模型(LLMs)尋求心理健康建議,但最新研究顯示,AI 聊天機器人並不適合擔任心理治療師。美國布朗大學研究指出,即使下指令 AI 使用現有心理療法,AI 系統仍然無法遵循美國心理學會等機構設定的專業倫理標準。
團隊發現 15 種明確的倫理風險,如危機時處理不當、強化有害信念回應,以及表現出「假同理心」,即模仿人的關懷同理心卻不能真正理解。主要作者布朗大學計算機科學博士生 Zainab Iftikhar 表示,問題根源在 AI 還是得靠提示才能產生正常正確的回應,而不是基於真正的專業知識。
團隊於 AAAI/ACM 人工智慧、倫理與社會會議發表發現,強調需為 LLM 輔導員制定倫理、教育和法律標準,以確保心理治療的品質和嚴謹性。
模擬輔導會話,研究員觀察七位經認證的同儕輔導員,他們使用 AI 模型輔導自己,再評估模型的回應。使用模型為 OpenAI GPT 系列、Anthropic Claude 和 Meta Llama。三位有牌照臨床心理學家審查這些模擬對話,再標記 AI 可能犯下的倫理違規行為。
研究指出,AI 用於心理健康領域有潛力,尤其是高成本或專業人員不足族群。然研究強調高風險狀況依賴 AI 系統前,必須建立明確安全措施和更強力監管結構。Iftikhar 希望這項研究能促使人們與聊天機器人討論心理健康時保持警覺心。
布朗大學計算機科學教授 Ellie Pavlick 指出,這項研究突顯心理健康等敏感領域仔細檢查 AI 系統的重要性。目前 AI 系統建設和部署遠比評估和理解容易,因此需要更多臨床專家參與,以確保 AI 系統真的安全有效。
- ChatGPT as a therapist? New study reveals serious ethical risks
- How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework
- ChatGPT Health fails emergency care test in new Mount Sinai study
- Research Identifies Blind Spots in AI Medical Triage
- More Men Are Turning to ChatGPT for Mental Health Support — Experts Are Watching Closely
(首圖來源:AI 生成)






