AI 聊天機器人能否成為心理治療的可靠夥伴?專家警告倫理風險仍高

作者 | 發布日期 2026 年 03 月 08 日 10:30 | 分類 AI 人工智慧 , 生物科技 , 醫療科技 line share Linkedin share follow us in feedly line share
Loading...
AI 聊天機器人能否成為心理治療的可靠夥伴?專家警告倫理風險仍高

越來越多人找 ChatGPT 和其他大型語言模型(LLMs)尋求心理健康建議,但最新研究顯示,AI 聊天機器人並不適合擔任心理治療師。美國布朗大學研究指出,即使下指令 AI 使用現有心理療法,AI 系統仍然無法遵循美國心理學會等機構設定的專業倫理標準。

團隊發現 15 種明確的倫理風險,如危機時處理不當、強化有害信念回應,以及表現出「假同理心」,即模仿人的關懷同理心卻不能真正理解。主要作者布朗大學計算機科學博士生 Zainab Iftikhar 表示,問題根源在 AI 還是得靠提示才能產生正常正確的回應,而不是基於真正的專業知識。

團隊於 AAAI/ACM 人工智慧、倫理與社會會議發表發現,強調需為 LLM 輔導員制定倫理、教育和法律標準,以確保心理治療的品質和嚴謹性。

模擬輔導會話,研究員觀察七位經認證的同儕輔導員,他們使用 AI 模型輔導自己,再評估模型的回應。使用模型為 OpenAI GPT 系列、Anthropic Claude 和 Meta Llama。三位有牌照臨床心理學家審查這些模擬對話,再標記 AI 可能犯下的倫理違規行為。

研究指出,AI 用於心理健康領域有潛力,尤其是高成本或專業人員不足族群。然研究強調高風險狀況依賴 AI 系統前,必須建立明確安全措施和更強力監管結構。Iftikhar 希望這項研究能促使人們與聊天機器人討論心理健康時保持警覺心。

布朗大學計算機科學教授 Ellie Pavlick 指出,這項研究突顯心理健康等敏感領域仔細檢查 AI 系統的重要性。目前 AI 系統建設和部署遠比評估和理解容易,因此需要更多臨床專家參與,以確保 AI 系統真的安全有效。

(首圖來源:AI 生成)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》