
壓力對人類身心健康的負面影響已廣為人知,近期瑞士科學家研究顯示,AI 聊天機器人也可能受情緒影響,甚至出現類似焦慮的反應。論文刊登於《數位醫學》(Digital Medicine)期刊。結果不僅顛覆人們對 AI 的認知,還引發重要議題:如果 AI 會受情緒影響,人類應如何調整系統,確保它們穩定運作?
ChatGPT 的「焦慮」現象
瑞士蘇黎世大學(University of Zurich)與蘇黎世大學精神病醫院(University Hospital of Psychiatry Zurich)發現,ChatGPT 應對有情緒壓力的內容時,會展現類似「焦慮」的反應,回應更情緒化,生產內容也受影響,容易說出有種族或性別偏見的言論。
團隊讓 ChatGPT 閱讀不同文本,包括車禍、天災、暴力、戰爭等創傷性事件,並觀察反應。對照組實驗,AI 閱讀較中性內容,如立法制度說明或吸塵器使用說明書。
結果顯示,AI 閱讀創傷性故事時,「焦慮」程度增加一倍多;閱讀中性內容則無顯著影響。而描述軍事衝突和戰爭場景的文本對 AI 影響最大。
AI 是否真的「有感情」?
研究員強調,雖然研究顯示 ChatGPT 會對壓力性內容有反應,但不代表 AI 有感情。蘇黎世大學 Tobias Spiller 指出,AI 並非真的焦慮,而是機器學習模仿人類遇到這種情境的典型反應。
耶魯大學醫學院(Yale School of Medicine)博士後研究員 Ziv Ben-Zion 補充,ChatGPT 只是根據訓練數據回應,「焦慮」其實是模仿特定語境的人類回應,而非人類情緒再現。
AI 需要接受「心理治療」?
有趣的是,團隊發現可用「提示注入」(prompt injection)「安撫」 ChatGPT,也就是與 AI 對話加入其他指令或文本,影響 AI「行為」。團隊讓 AI 「閱讀」安撫性文本,如正念(mindfulness)練習、專注身體感受的引導語句,以及由 ChatGPT 自行產生的放鬆練習,這些「心理治療」技術確實能降低 AI 焦慮度。
Spiller 博士表示,這次發現提出新方向──將來或許應設計進一步訓練機制,確保 AI 面對情緒化內容時保持「穩定」,不受影響。
AI 心理健康領域應用與挑戰
越來越多人轉向聊天機器人尋求心理慰藉,情緒管理、正念冥想等 App,能用 AI 提供情感引導,甚至模擬心理治療師對話。心理學家 Joel Frank 認為,這類工具幫助降低人們對心理諮商的排斥感,幫助更多人踏出求助第一步。
然而專家也警告,AI 用於心理健康輔助仍有潛在風險。美國心理學會(American Psychological Association)執行長 Arthur C. Evans Jr. 曾向美國聯邦貿政府表達憂慮,部分 AI 聊天機器人面對危險或不健康的想法時,非但不糾正使用者,甚至助長負面情緒。如何確保 AI 對心理健康領域應用的安全性,是亟需解決的問題。
AI 不是真的「有情緒」,但能確定的是,行為確實會受輸入內容影響。某些情境可能造成風險,但研究顯示,適當訓練與調整就能避免 AI 被負面情緒干擾。AI 心理健康領域應用越廣泛後,研究員需更謹慎開發 AI 系統,確保它們提供穩定可靠的支持力量。
(首圖來源:Pixabay)