蘋果擬讓 iPhone 偵測兒童色情照片,新軟體保護還是侵害隱私?

作者 | 發布日期 2021 年 08 月 06 日 11:49 | 分類 AI 人工智慧 , iOS , iPhone Telegram share ! follow us in feedly


蘋果計畫推出新 iPhone 軟體,具有偵測和回報兒童色情照片的功能,但此舉卻引發隱私爭議。批評人士認為,蘋果強調透過加密保護用戶數據,但新軟體很可能讓蘋果原本的立場徹底改變。

綜合外媒報導,蘋果 5 日開始測試該軟體,預計等到今年稍晚時的 iOS 15 更新,才會出現在美國用戶的 iPhone 中。

新軟體如何擋下兒童色情照片?

這套軟體將使用密碼學和人工智慧的新技術,透過 Hashing(雜湊)的方式,檢查被稱之為「兒童性虐待素材」(CSAM)的照片,而照片會被轉化為其對應的特殊數字。

當用戶將照片存在 iCloud Photos 之前,蘋果會將照片與美國的國家兒童失蹤與受虐兒童援助中心(NCMEC)所提供的資料庫進行匹配。蘋果表示,匹配過程是在用戶 iPhone 上完成,而不是雲端。

如果用戶上傳的違規照片達到一定數量,新軟體將上傳一個檔案,允許蘋果解密,並以人工方式審查用戶照片,不過蘋果拒絕透露違規照片數的門檻。

一旦證實照片屬於非法內容,蘋果將禁止該用戶的 iCloud 帳號,並向非營利組織美國國家兒童失蹤與受虐兒童援助中心(NCMEC)舉報。

蘋果表示,軟體只能檢查非法照片,無法檢查影片,而且只能審查已知且與資料庫內容相匹配的照片,因此它無法檢測到父母拍攝小孩洗澡的照片,因為這並沒有記錄在 NCMEC 資料庫裡。

反之,若用戶認為他們的帳戶被偵測錯誤,可以向蘋果提出上訴。蘋果表示,新軟體只對上傳到 iCloud 的照片起作用,所以用戶可以自行關閉,只要設備中的照片沒有上傳到蘋果伺服器,就不會啟用該軟體。

蘋果強調,跟過往處理兒童色情內容的方式相比較,新軟體其實更加隱密,因為它在蘋果伺服器、用戶設備上使用複雜的加密技術,而不需要掃描實際的照片。

新軟體引發隱私爭議

不過,一部分的安全研究人員擔心,這項技術最終被用於辨識其他類型的照片,好比政治抗爭的照片。蘋果表示,這套軟體僅適用且只對 NCMEC 或其他兒童安全組織的照片起作用,裡頭的編碼也讓這套軟體無法用於其他目的。

目前,蘋果正在向密碼學家展示這套軟體,以證明它可以在不損害用戶隱私的情況下,檢測兒童色情照片。

此外,蘋果還新增一些保護兒童免受侵害的功能,好比透過機器學習,當有家庭帳戶的孩童使用 iPhone 時,會模糊可能含有裸體的照片;父母可以選擇當 13 歲以下孩童在 iMessage 中收到色情內容時發出提醒;蘋果還對Siri進行更新,提供有關剝削兒童的資訊。

(首圖來源:科技新報)

關鍵字: , , ,