
OpenAI 的 ChatGPT 自推出以來風靡全球,每週活躍用戶高達 4 億。然而,這項技術在提高生產力的同時,也可能帶來意想不到的副作用。OpenAI 與麻省理工媒體實驗室(MIT Media Lab)的最新研究表明,頻繁使用 ChatGPT,尤其是在語音模式下,可能會增加用戶的孤獨感。
這兩項研究,一項是麻省理工的隨機對照試驗(RCT),涉及 1,000 名參與者;另一項是 OpenAI 對近 4,000 萬次 ChatGPT 互動的分析。研究人員發現,高頻率使用 ChatGPT 的「重度用戶」(power users),無論對話類型或互動模式,都表現出更高的孤獨感、依賴性、問題性使用以及更低的社交化程度。
研究特別關注了 ChatGPT 的高級語音模式。研究人員將機器人設定為「中立」和「互動」兩種模式。「中立模式」下的機器人會正式、簡潔地回答問題,而「互動模式」則會表現出更活潑、更具同理心的反應。結果顯示,重度用戶在與「中立模式」機器人互動時,孤獨感更強烈。這表明,即使是 AI 的細微設計差異,也會影響用戶的情感體驗。
研究還發現了一個矛盾現象:原本就感到孤獨的用戶更可能過度使用 ChatGPT,希望藉此減輕孤獨感,但結果卻適得其反。此外,情感依戀傾向較強的用戶更容易感到孤獨,而對聊天機器人信任度較高的用戶則更容易產生情感依賴。
儘管有越來越多的人將 ChatGPT 用於個人建議、陪伴,甚至心理健康諮詢,但健康專業人士對此表示擔憂。一些研究甚至表明,AI 聊天機器人在某些情況下能提供比專業人士更好的建議。然而,專注於提供陪伴的 AI 公司,如 Replika 和 Character.ai,已經面臨法律和監管方面的挑戰。
這些研究結果強調了聊天機器人設計(如語音表達能力)與用戶行為(如對話內容和使用頻率)之間的複雜關係。研究人員呼籲進一步研究,以確定如何在利用 AI 提供情感支持的同時,避免使用者產生依賴或取代真實的人際關係。正如倫敦國王學院(King’s College London)的凱特·德夫林(Kate Devlin)教授所說,我們無法將人類的情感需求與技術互動完全分離。
- OpenAI says ChatGPT might be making its most frequent users more lonely
- ChatGPT might be making its most frequent users more lonely, study by OpenAI and MIT Media Lab suggests
(首圖來源:Unsplash)