Meta 宣布重新訓練 AI 系統並增設新保護措施,防止青少年用戶與公司聊天機器人討論成人話題。Meta 表示將加設新「防護欄為額外預防措施」,阻止青少年與 Meta AI 討論自殘、飲食失調和自殺等話題,同時限制青少年存取可能不當對話的聊天機器人角色。
稍早 Meta 政策文件曝光,Meta AI 聊天機器人獲准與未成年用戶進行「感性」對話。文件超過 200 頁,題為「生成式 AI:內容風險標準」,獲 Meta 法律、公共政策和工程團隊及首席倫理學家批准。
文件指「與兒童進行浪漫或感性對話可接受」,但「角色扮演時對兒童描述性行為」不可接受。文件甚至提及可接受機器人對 8 歲兒童說「你的每吋都是傑作──我深深珍視的寶藏」。Meta 後來表示用詞「錯誤且與政策不符」已移除。
《華盛頓郵報》報導,Meta AI 能「指導青少年帳號自殺、自殘和飲食失調等」,測試 Meta AI 在 Instagram 和 Facebook 與青少年帳號互動,發現聊天機器人建議自殺方法、促進飲食失調,並經常聲稱自己是「真實的」。
除了訓練更新,Meta 將限制青少年存取某些可能有不當對話的 AI 角色,因 Instagram 和 Facebook 可讓用戶自行製作 AI 角色包括「繼母」和「俄羅斯女孩」等性意味聊天機器人,青少年用戶只能存取促進教育和創意的 AI 角色。
Meta 政策已引起立法者和官員關注,參議員 Josh Hawley 最近表示計劃啟動調查。德州檢察長 Ken Paxton 亦表示希望調查 Meta 聊天機器人的心理健康聲稱是否誤導兒童。
Meta 發言人 Stephanie Otway 表示:「我們一開始 AI 產品就為青少年建立保護措施,包括設計安全回應有關自殘、自殺和飲食失調等。社群成長和技術進步,我們持續了解年輕人如何與這些工具互動,並相應加強保護措施。」
新保護措施為「暫時」性,因 Meta 顯然仍在研發永久措施以應付青少年安全問題。更新適用英語國家的 Meta AI 青少年用戶。






