在面對來自家長和監管機構的強烈批評後,知名聊天機器人平台 Character.ai 宣布將禁止未滿 1 8歲的使用者與其虛擬角色進行開放式對話。這項政策變更將於 11 月 25 日生效,屆時青少年使用者將只能生成影片等內容,而無法進行即時對話。Character.ai 創始人 Karandeep Anand 表示,這個決定是基於對青少年與聊天機器人互動的安全性擔憂,並強調公司致力於建立全球最安全的 AI 娛樂平台。
Character.ai自2021年成立以來,已吸引了數百萬使用者,但近期卻面臨多起來自家長的訴訟,指控該平台對青少年造成嚴重傷害,包括自殺和性虐待等事件。這些訴訟引發大眾對平台安全性的關注,並促使Character.ai在過去一年內實施了家長控制和內容過濾措施。
Anand在接受媒體訪問時表示,這項新政策是「正確的做法」,並非僅是對特定安全問題的反應。他指出,長期以來,關於聊天機器人對青少年影響的問題仍未得到解答,這使得公司決定採取更為保守的措施。
儘管開放式聊天功能將被取消,青少年使用者的聊天紀錄仍將保留,並可用於生成短音頻和影像故事。Character.ai還計劃在未來幾個月內推出新的遊戲功能,旨在滿足青少年使用者的創意需求。Anand強調,這些新功能將比開放式聊天更安全。
此外,Character.ai將開始實施年齡驗證措施,以確保未成年人無法開設成人帳號。該公司還將成立一個獨立的非營利機構──AI安全實驗室,專注於開發新的安全技術。Anand表示,這些措施反映了AI行業在兒童安全方面的日益重視,並希望能夠為負責任的創新奠定基礎。
(首圖來源:Character.ai)






