一次到位,蘋果預計將兒童色情偵測功能擴展到第三方應用程式

作者 | 發布日期 2021 年 08 月 10 日 10:18 | 分類 AI 人工智慧 , Apple , iOS Telegram share ! follow us in feedly


上週蘋果(Apple)宣布新兒童保護(Child Safety)政策,將在 iOS 與 iPadOS 加入圖片審查機制,自動偵測用戶 iPhone 與 iCloud 是否有兒童色情影像,打擊兒童相關性犯罪問題。《MacRumors》報導,蘋果新措施不僅審查用戶 iPhone 與 iCloud,未來也會擴展到第三方應用程式。

新兒童安全保護政策

何謂蘋果的兒童安全保護政策?官方資料顯示,未來孩童 iPhone、iPad、Mac 如果接收與色情相關內容,且有綁定家庭帳號的情況下,系統會自動通知孩童父母;系統也會模糊處理色情影像,並跳出警告提醒孩子。

這項政策的另一項功能,就是會自動偵測用戶 iPhone、iCloud 儲存的照片影像,查看是否有大量兒童性剝削(CSAM)內容;如果系統偵測到影像,就會自動通報美國國家兒童失蹤與受虐兒童援助中心(NCMEC),會與美國各地執法機構合作,打擊犯罪。

不過《MacRumors》也指出,蘋果新措施僅限偵測兒童色情相關照片,影片尚未納入。

蘋果 Siri 與 Spotlight 搜尋功能未來也將兼具「色情守門員」功能,防止孩童在不知情或不安全情況下,接收到不恰當的色情資訊。

保護措舉將涵蓋第三方 App

《MacRumors》也指出,雖然蘋果尚未公布詳細資訊,但兒童安全保護政策未來將擴展到第三方應用程式,使用戶獲得更廣泛的保護。

至於會擴展到哪些類型的應用程式,目前官方尚未公告,據外國媒體猜測,可能會擴展到 Snapchat、Instagram 或 WhatsApp 等應用程式,當兒童收到色情圖片時,系統會自動模糊這些影像。

又或蘋果 CSAM 偵測系統擴展到第三方應用程式,當兒童色情圖片上傳後就會通報。

(首圖來源:科技新報)