11 月 25 日,因應未成年用戶使用角色扮演聊天機器人可能帶來的心理健康風險,Character.AI 宣布將禁止 18 歲以下使用者進行開放式雙向對話,包括浪漫角色扮演及深度情感互動。公司設定每日互動上限兩小時的過渡期,並鼓勵未成年人轉向安全的創意應用如直播、影片製作。此舉是回應 2024 年一名 14 歲使用者因過度依賴 AI 角色發生悲劇性事件後的安全措施。 繼續閱讀..
青少年 AI 依賴風險升溫,Character.AI 推年齡驗證與兩小時上限 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 25 日 15:10 | 分類 AI 人工智慧 , 網路 |



