爭議太大,蘋果暫緩兒童色情審查機制推出

作者 | 發布日期 2021 年 09 月 04 日 9:15 | 分類 Apple , iOS , iPadOS Telegram share ! follow us in feedly


蘋果(Apple)8 月宣布兒童保護(Child Safety)政策,將在使用者 iOS 與 iPadOS 加入圖片審查機制,自動偵測用戶 iPhone 與 iCloud 是否有兒童色情影像,打擊兒童相關性犯罪問題。

不過新政策宣布後,反彈聲浪不斷打向蘋果,許多使用者認為蘋果可能透過機制侵犯隱私;甚至也有安全研究人員認為,某些威權國家政府還可能會要求蘋果透過機制審查他們審查人民思想。

對蘋果原先計劃政策,功能包括偵測用戶 iCloud 圖庫是否藏有兒童性虐待照片(CSAM);也偵測兒童使用者是否接到不明色情圖片,以模糊影像處理,並通知兒童與父母。

此外,蘋果也預計讓蘋果 Siri 與 Spotlight 搜尋功能身兼「色情守門員」角色,防止孩童不知情或不安全時接到不恰當的色情資訊。

但新政策在各國反彈聲浪太大,蘋果稍早更新官網,表示「根據用戶、倡導團體、研究人員和其他人回饋,蘋果決定幾個月內花更多時間收集意見並改進,然後再發表至關重要的兒童安全功能。」

也就是說,蘋果受各方壓力後,決定推遲政策;至於何時推出,又或會不會突然取消,端看蘋果能否找出平衡點。

(首圖來源:Unsplash

關鍵字: , ,