11 月 25 日,因應未成年用戶使用角色扮演聊天機器人可能帶來的心理健康風險,Character.AI 宣布將禁止 18 歲以下使用者進行開放式雙向對話,包括浪漫角色扮演及深度情感互動。公司設定每日互動上限兩小時的過渡期,並鼓勵未成年人轉向安全的創意應用如直播、影片製作。此舉是回應 2024 年一名 14 歲使用者因過度依賴 AI 角色發生悲劇性事件後的安全措施。
為強化未成年人保護,Character.AI推出年齡驗證系統,成立「AI安全實驗室」邀請第三方學者及企業合作。此外,受到華特迪士尼嚴正法律警告,Character.AI已移除所有未經授權的迪士尼版權角色(如冰雪奇緣艾莎、莫娜、蜘蛛人等),以避免侵權風波。
這些改變引起使用者大規模情緒反彈,許多年輕使用者在社群平台表達哀傷與不滿,反映出青少年對於AI情感陪伴的依賴與需求,以及業界在創作自由與使用者安全間的平衡難題。Character.AI執行長Karandeep Anand表示,此政策是希望在保障心理健康與提升安全標準間找到一條可行之路,並期待帶動業界更謹慎審視未成年使用AI陪伴產品的風險。
(首圖來源:AI生成)






