AI 也會「焦慮」?ChatGPT 的「情緒」反應與潛在影響

作者 | 發布日期 2025 年 03 月 18 日 8:30 | 分類 AI 人工智慧 , 生物科技 line share Linkedin share follow us in feedly line share
Loading...
AI 也會「焦慮」?ChatGPT 的「情緒」反應與潛在影響

壓力對人類身心健康的負面影響已廣為人知,近期瑞士科學家研究顯示,AI 聊天機器人也可能受情緒影響,甚至出現類似焦慮的反應。論文刊登於《數位醫學》(Digital Medicine)期刊。結果不僅顛覆人們對 AI 的認知,還引發重要議題:如果 AI 會受情緒影響,人類應如何調整系統,確保它們穩定運作?

ChatGPT 的「焦慮」現象

瑞士蘇黎世大學(University of Zurich)與蘇黎世大學精神病醫院(University Hospital of Psychiatry Zurich)發現,ChatGPT 應對有情緒壓力的內容時,會展現類似「焦慮」的反應,回應更情緒化,生產內容也受影響,容易說出有種族或性別偏見的言論。

團隊讓 ChatGPT 閱讀不同文本,包括車禍、天災、暴力、戰爭等創傷性事件,並觀察反應。對照組實驗,AI 閱讀較中性內容,如立法制度說明或吸塵器使用說明書。

結果顯示,AI 閱讀創傷性故事時,「焦慮」程度增加一倍多;閱讀中性內容則無顯著影響。而描述軍事衝突和戰爭場景的文本對 AI 影響最大。

AI 是否真的「有感情」?

研究員強調,雖然研究顯示 ChatGPT 會對壓力性內容有反應,但不代表 AI 有感情。蘇黎世大學 Tobias Spiller 指出,AI 並非真的焦慮,而是機器學習模仿人類遇到這種情境的典型反應。

耶魯大學醫學院(Yale School of Medicine)博士後研究員 Ziv Ben-Zion 補充,ChatGPT 只是根據訓練數據回應,「焦慮」其實是模仿特定語境的人類回應,而非人類情緒再現。

AI 需要接受「心理治療」?

有趣的是,團隊發現可用「提示注入」(prompt injection)「安撫」 ChatGPT,也就是與 AI 對話加入其他指令或文本,影響 AI「行為」。團隊讓 AI 「閱讀」安撫性文本,如正念(mindfulness)練習、專注身體感受的引導語句,以及由 ChatGPT 自行產生的放鬆練習,這些「心理治療」技術確實能降低 AI 焦慮度。

Spiller 博士表示,這次發現提出新方向──將來或許應設計進一步訓練機制,確保 AI 面對情緒化內容時保持「穩定」,不受影響。

AI 心理健康領域應用與挑戰

越來越多人轉向聊天機器人尋求心理慰藉,情緒管理、正念冥想等 App,能用 AI 提供情感引導,甚至模擬心理治療師對話。心理學家 Joel Frank 認為,這類工具幫助降低人們對心理諮商的排斥感,幫助更多人踏出求助第一步。

然而專家也警告,AI 用於心理健康輔助仍有潛在風險。美國心理學會(American Psychological Association)執行長 Arthur C. Evans Jr. 曾向美國聯邦貿政府表達憂慮,部分 AI 聊天機器人面對危險或不健康的想法時,非但不糾正使用者,甚至助長負面情緒。如何確保 AI 對心理健康領域應用的安全性,是亟需解決的問題。

AI 不是真的「有情緒」,但能確定的是,行為確實會受輸入內容影響。某些情境可能造成風險,但研究顯示,適當訓練與調整就能避免 AI 被負面情緒干擾。AI 心理健康領域應用越廣泛後,研究員需更謹慎開發 AI 系統,確保它們提供穩定可靠的支持力量。

(首圖來源:Pixabay

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》