
美國聯邦貿易委員會(FTC)於 11 日宣布,對擁有面向消費者的人工智慧聊天機器人的公司展開調查,這些公司包括 Alphabet(Google 母公司)、Meta Platforms(擁有 Instagram 和 Facebook)、OpenAI、xAI、Snap 及 Character.AI。此次調查的重點是評估這些公司所開發的人工智慧聊天機器人,特別是那些做為「伴侶」與用戶互動的產品,對兒童與青少年的心理健康及安全風險。
FTC主要關切這些企業如何測試、監控及評估其AI聊天機器人對兒童與青少年的潛在負面影響,並限制兒童使用,以及如何向家長和使用者說明潛在風險。這些聊天機器人利用生成式AI技術模擬人類互動,可能導致未成年用戶建立依賴或情感連結,引發嚴重心理與隱私問題。
此外,這些企業還需披露其數據收集、儲存與廣告變現政策,做為FTC對市場技術監管的重要依據。FTC委員會主席Andrew N. Ferguson表示,保護兒童及推動技術創新同等重要,調查旨在促成安全可靠的AI產業發展。
- FTC Probes Big Tech About Child Safety Concerns with AI Chatbots
- OpenAI, Meta, Google, xAI face chatbot scrutiny from FTC
- FTC to Study AI Chatbot Risks to Children
- FTC opens inquiry into how AI chatbots impact child safety, privacy
(首圖來源:AI 生成)