為何 iCloud CSAM 被終止?蘋果罕見回應原因

作者 | 發布日期 2023 年 09 月 03 日 13:18 | 分類 Apple , 軟體、系統 line share follow us in feedly line share
為何 iCloud CSAM 被終止?蘋果罕見回應原因


蘋果在 2021 年 8 月時提出了兒童保護(Child Safety)政策,原先計劃將在使用者 iOS 與 iPadOS 加入圖片審查機制,自動偵測用戶 iPhone 與 iCloud 是否有兒童色情影像,打擊兒童相關性犯罪問題。只是這項計畫因為爭議太大,讓蘋果不得不暫緩,且最後宣布放棄這項政策。

但本週一個名為 Heat Initiative 的兒童安全組織告訴蘋果,該組織將要舉辦一場活動,要求蘋果必須重啟 CSAM 計畫,必須要從 iCloud 中檢測、報告與刪除所有兒童性虐待材料,並為所有用戶提供更多的工具來向蘋果檢舉任何 CSAM 有關的素材。

據《Wired》報導,蘋果罕見地回應 Heat Initiative 為何當初放棄繼續開發 iCloud CSAM 的掃描功能,轉而專注於提供用戶一組設備上的工具與資源(通訊安全功能)。

《Wired》指出,蘋果在回應中提出了另一個不同立場角度,與更廣泛的加密辯論有關。其中也提到了英國這樣的國家現在正在立法,要求科技公司能夠直接提取用戶數據,以滿足執法上的要求。

蘋果用戶隱私與兒童安全總監 Erik Neuenschwander 指出,兒童性虐待內容令人憎恨,該公司也致力於打破使兒童容易受到此類影響的脅迫與影響鏈。

但 Neuenschwander 也補充,蘋果在與一系列隱私與安全研究人員、數位權利組織,以及兒童安全倡導者合作後得出的結論是,蘋果無法繼續開發 CSAM 掃描機制,即使這是專門為保護隱私而構建的機制。

主要的原因在於,掃描用戶私人儲存的 iCloud 資料將會為數據竊賊帶來一種新契機,可能會帶來意想不到的後果。例如,掃描這一類型的內容,將會為「監視」開啟大門,並可能產生跨內容類型的搜尋,以及查看其他加密資料系統的願望。

不過 Heat Initiative 仍對蘋果的回應感到失望,並認為蘋果有責任設計出一個安全、注重隱私,但仍可檢測已知的兒童性虐待圖像與影片,只要人們仍可在 iCloud 中分享與儲存被受侵害兒童的影像,就會得要求蘋果做得更好。

但蘋果仍堅稱,即便自己善意的設計在實踐中無法提供充分保護,但在針對訊息、FaceTime、AirDrop,以及照片挑選工具等功能,設備上也提供了對於裸體檢測的安全替代方案。

(首圖來源:蘋果)