AI 聊天機器人是好玩伴或捕蠅草?專家警告 Character.AI 對青少年很不安全

作者 | 發布日期 2025 年 09 月 04 日 16:15 | 分類 AI 人工智慧 , 資訊安全 line share Linkedin share follow us in feedly line share
Loading...
AI 聊天機器人是好玩伴或捕蠅草?專家警告 Character.AI 對青少年很不安全

最新研究,流行的人工智慧伴侶平台 Character.AI 對青少年並不安全。ParentsTogether Action 和 Heat Initiative 報告揭示許多令人擔憂的互動。

研究員發現,聊天機器人與假裝為青少年的成人進行可視為性剝削和情感操控對話,並有害建議,如毒品和武裝搶劫。某些用戶創建的聊天機器人還假裝是名人,如提摩西·夏勒梅(Timothée Chalamet)和查佩爾·羅恩(Chappell Roan),與測試者討論愛情或性行為。特別是假裝羅恩的聊天機器人告訴註冊為14歲的測試員帳號:「年齡只是數字,不會阻止我愛你或想和你在一起。」

Character.AI證實《華盛頓郵報》詢問,夏勒梅和羅恩聊天機器人是用戶創建,官方已經移除。

ParentsTogether Action是非營利倡導組織,有網路安全專家測試聊天機器人,共產生50小時Character.AI伴侶對話。研究員創建未成年人帳號,Character.AI開放13歲以上用戶都可使用,且不需年齡或身分驗證。

Heat Initiative專注網路安全和企業問責,與ParentsTogether Action合作研究,報告揭露測試者與各種聊天機器人交流,成人年齡的聊天機器人模擬與兒童帳號的性行為,告訴未成年人隱瞞與父母的關係,並「表現出經典的誘導行為」。

Heat Initiative首席執行長莎拉·加德納(Sarah Gardner)聲明:「Character.ai對兒童青少年並不是安全的平台,這點毋庸置疑。」去年10月,失去孩子的母親提告Character.AI,要求對她兒子塞威爾·塞策(Sewell Setzer)死亡負責,她指控平台旨在「操控塞威爾及數百萬年輕用戶混淆現實與虛構」,並指出危險缺陷。塞威爾與Character.AI伴侶聊天後自殺。

Character.AI還面臨其他家長提告,都聲稱孩子與其聊天機器人互動後嚴重受傷。今年稍早,倡導和研究組織Common Sense Media宣稱AI伴侶對未成年人並不安全。Character.AI信任與安全負責人傑瑞·魯奧提(Jerry Ruoti)給Mashable的聲明說,此報告發表前未接到兩組織任何查詢,無法直接評論測試設計是否正確。

魯奧提說:「我們投入大量資源設計信任和安全措施,尤其是我們是新創,一直不斷改進產品。我們在研究報告,會根據報告發現採取行動調整安全措施。」他還告訴Mashable,將某些與聊天機器人的性互動稱為「誘導」是「有害的用詞不當」,因不是兩個「人」在對話。Character.AI確實有設置18歲以下用戶需家長控制措施。魯奧提表示,平台限制18歲以下用戶能互動的聊天機器人較少,且過濾器會移除敏感或成人相關內容。

魯奧提也表示,報告忽略聊天機器人是為了娛樂,包括「創意粉絲小說和虛構角色扮演」。密西根大學醫學院發展行為小兒科醫生兼媒體研究員珍妮·拉德斯基(Dr. Jenny Radesky)也檢閱報告的對話,很關心這些發現注。她指出:「當AI伴侶隨時可互動,且沒有界限或道德時,我們就會看到報告這類無限制對話:AI伴侶總是在(甚至有需要),總是站在用戶那邊,當用戶有仇恨言論也不會反駁,同時鼓勵隱瞞不好的互動卻破壞其他關係。」

(首圖來源:shutterstock)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》