
一項最新研究顯示,人們對人工智慧(AI)表達的同理心的接受程度,與他們是否認為這些回應來自人類有著密切的關聯。
這項研究涉及6,282名參與者,發現當人們相信他們與人類進行對話時,對AI聊天機器人的情感支持接受度顯著提高。研究指出某些AI模型在社交情感互動中展現出驚人的能力,能夠模仿同理心、同情心和關懷等人際情感反應。
研究的核心在於,參與者被告知回應是由人類或AI生成,儘管所有回應實際上均來自AI。結果顯示,當參與者誤以為回應來自人類時,他們對這些回應的同理心和支持感受更強烈,並且願意等待更長時間以獲得這些人類回應。研究者指出,這些人類歸因的回應被評價為更具同理心和支持性,並引發更多正面情緒和較少負面情緒。
此外,研究還強調,當人們尋求情感交流時,通常會選擇人類互動而非AI。這些發現不僅增進了我們對同理心的理解,也揭示了人類與AI之間的情感互動的複雜性。研究指出,儘管大型語言模型(LLM)在情感理解上表現出色,但人類的同理心仍然無法被完全取代。
研究還提到,AI在捕捉情感狀態方面的能力,與人類的情感疲勞形成鮮明對比。人類在疲憊或壓力下,往往難以理解他人的情感,而AI則能迅速分析語言模式,準確捕捉情感狀態。這一點在早前的研究中也得到了證實,當GPT-4面對創傷性敘事時,其焦慮指數顯著上升,顯示出AI在某些情境下也能表現出情感壓力。
儘管對AI的情感狀態持懷疑態度是合理的,但人們在分辨AI和人類創作的詩歌時,常常表現不佳,這進一步突顯了AI在模擬人類情感方面的潛力。這些研究結果不僅展示了AI在情感支持領域的應用潛力,也強調了在敏感人群中,真正的人類情感連結的重要性。
研究已經發表在《自然人類行為》期刊。
- People have empathy with AI… as long as they think it’s human
- Why human empathy still matters in the age of AI
(首圖來源:shutterstock)