蘋果 CSAM 醜聞再升級:掃描演算法有嚴重缺陷,三年前就開始「偷窺」使用者

作者 | 發布日期 2021 年 08 月 28 日 0:00 | 分類 AI 人工智慧 , Apple , iOS line share follow us in feedly line share
蘋果 CSAM 醜聞再升級:掃描演算法有嚴重缺陷,三年前就開始「偷窺」使用者


8 月 24 日,是締造蘋果傳奇的史蒂夫·賈伯斯卸任 CEO,將大權交給提姆·庫克十週年的日子。

十年過去,蘋果財務表現無比優秀,多年保持世界最高市值公司紀錄。然而名氣和財氣背後,這幾年蘋果風評越來越差,就連經常吹捧的隱私保護,蘋果種種表現越來越令人難相信:這居然是蘋果做的好事?

8 月初蘋果被業界人士爆料(官方很快承認)爭議性極高的新舉動:審核用戶手機保存的照片,以及經過 iMessage 發表上傳到 iCloud 的圖片,以辨識兒童色情和虐待(CSAM),打擊傳播此類內容。

這可是蘋果,號稱最注重用戶個人隱私的蘋果。現在蘋果堂而皇之搖身一變,成了隨時隨地都在「偷看」用戶照片的公司。自新政宣布,不利蘋果的新聞接連發生,使 CSAM 掃描事件不斷升級,已達稱為「醜聞」的程度了。

演算法漏洞浮現

快速前情提要:

8 月 5 日,約翰霍普金斯大學加密學教授 Matthew Green 曝光蘋果將推出檢測 CSAM 的技術,名為 NeuralHash,就是在用戶手機和 iCloud/蘋果伺服器雲端,用演算法比對用戶圖片和第三方 CSAM 資料庫的雜湊值(hash values、hashes)。若比對成功,蘋果就會隱藏這張照片,且不排除報警或通知青少年家長等。

這技術應用層面的問題主要有兩點:

  1. 只打擊 CSAM 的技術,無法限制只針對 CSAM,因:
  2. 此類工具技術已攻破,兩張完全不同的照片也能雜湊碰撞(即擁有相同雜湊值)。

之後 CSAM 技術又爆出新狀況,醜聞再升級。

機器學習研究者 Asuhariet Ygvar 發現,NeuralHash 演算法早在 iOS 14.3 就植入 iPhone 系統,且蘋果還混淆 API 命名。之前蘋果 CSAM 技術頁面宣稱,這項技術是新的,計劃 iOS 15 和 macOS Monterey 正式版推出時才啟動。

Ygvar 透過逆向工程,成功導出 NeuralHash 演算法並重新打包為 Python 可執行,還在 GitHub 提供導出方法,讓其他人可更深入探索研究。但 Ygvar 沒有提供導出後演算法,顯然是為了避免遭蘋果提告,這點之後再述。

Ygvar 早期測試顯示,NeuralHash 演算法對圖片尺寸和壓縮調整抗性較好,但如果圖片經切割或旋轉,NeuralHash 就不好用了。這表明 NeuralHash 演算法用於 CSAM 檢測效果可能會打折。

不出意外,很快就有人做到 NeuralHash 演算法雜湊值碰撞。波特蘭安全研究員 Cory Cornelius 上傳比特犬照片和灰色亂碼圖,兩張毫無關聯的圖片,透過 NeuralHash 演算法雜湊值居然一模一樣。

接著 Ygvar 也重現碰撞:

GitHub 留言下有人指出,Cornelius 的結果比碰撞更嚴重,已屬於原像攻擊 (pre-image)。雜湊碰撞就是找到兩張雜湊值相同的隨機照片,原像攻擊可理解為「刻意碰撞」,也就是先指定一張照片,然後生出另一張雜湊值相同但內容不同的照片。

更多開發者也用同一張照片做到更多碰撞:

甚至有人在 ImageNet(備受機器學習界歡迎,適用範圍超級廣的標註圖片資料庫)都找到天然 NeuralHash「雙胞胎」。ImageNet 一張釘子照和一張滑雪板照片,NeuralHash 算出雜湊值相同。另一張斧頭照和線蟲圖,也是天然的 NeuralHash 雜湊值雙胞胎。

NeuralHash 演算法原像攻擊,以及天然雜湊值雙胞胎表明:蘋果打算大規模推廣的 CSAM 辨識演算法,有遠比人們想像更嚴重的濫用缺陷。

你在網路跟某人結仇,他想報復你,於是去找一張 CSAM 照片,然後生成幾張看來人畜無害,但跟原始照片雜湊值相同的圖片發來。你的手機自動辨識為 CSAM 照片,你被舉報,員警上門,某人得逞。

沒錯,我們完全不需「設身處地」成可能傳播色情內容的人。每個普通人完全有可能成為技術濫用或錯誤使用的受害者。如果今天濫用的是 NeuralHash,對象碰巧是你,名譽馬上不堪一擊。

研究者 Brad Dwyer 表示,儘管有漏洞,目前早期測試似乎表明,雜湊碰撞發生率和蘋果宣稱的誤報率類似。Dwyer 強調,蘋果目前全球擁有超過 15 億使用者,代表 NeuralHash 若有誤報,會對大量使用者造成負面影響。

瞞天過海、封口威脅

Epic Games 和蘋果因「蘋果稅」、應用商城政策等問題結下梁子。這是 Epic Games 挑起針對蘋果的持久反壟斷戰,攻擊方面也完全不設限。證據採集階段,Epic Games 律師搜集大量跟案件有關或無關的資料,很多都是蘋果高度機密資料。

就在 8 月 26 日,訴訟再爆出和蘋果 CSAM 掃描有關的猛料:

蘋果反欺詐技術部門 FEAR(Fraud Engineering Algorithms and Risk)老大 Eric Friedman 2020 年和同事 iMessage 聊天時說:「我們(蘋果)是全世界最大的兒童色情內容平台。」

這當然只是反諷,Friedman 想說的是,由於蘋果隱私安全設計,更多不法分子選擇蘋果通訊產品傳播這些內容。表面看,這句話似乎是這位工作內容包括打擊兒童色情的蘋果高層用挖苦證明蘋果為什麼要做這件事。

但結合 CSAM,令人細思極恐:蘋果又怎麼知道自家平台有如此多兒童色情,以致 2020 年就如此斷言?難道蘋果以前就開始掃描用戶設備和 iCloud 帳戶了?

一些人開始猜測,蘋果早就在掃描用戶隱私了。

這條證據經訴訟公開後,蘋果發言人回應 9to5Mac 詢問時表示:我們從 2019 年就開始掃描使用者 iCloud 帳戶。這時間比包含 NeuralHash 演算法的 iOS 14.3 發表時間整整早了一年。蘋果掃描使用者 iCloud Mail,也即用戶註冊 iCloud 帳戶時的 @iCloud.com 電子信箱。

蘋果還表示也有掃描「其他數據」,但拒絕透露是哪些。蘋果宣稱從未掃描使用者 iCloud Photos(雲端相片存儲,iOS 預設開啟的功能)。

(Source:9to5Mac)

更令人費解的是,蘋果號稱將用戶數據隱私置於最高位,不時用這套說辭攻擊其他對手如 Facebook,卻從未清楚告知使用者也有掃描使用者隱私資料。蘋果稱珍惜用戶的信任,所以重視使用者的隱私,但現在「保護用戶隱私」更像宣傳用語。

蘋果當然想瞞天過海,但再也瞞不住時,也會不惜透過各種手段封口,阻撓第三方揭露問題,這點沒人比 Corellium 更了解。

常規管道銷售的 iPhone 有非常複雜的用戶協定,如果資安人士要深度分析破解(且未獲得蘋果許可),就算違反協定。Corellium 公司提供「虛擬化 ARM 架構設備」服務,包括 iOS 和 Android 設備,讓研究員可用電腦研究 ARM 架構的系統和軟體安全性,無需購買實體手機。

於是 2019 年蘋果以違反數位千年版權法狀告 Corellium。一開始外界擔心以蘋果強大的法務團隊,這案子最終可能會對資安業不利。好在去年 12 月,主審案子的法官下達初步裁決,確定 Corellium 的商業行為並不構成侵犯版權。

8 月 10 日,原定開庭日期前一星期,蘋果和 Corellium 突然達成庭外和解。和解還有微妙的細節:發生在蘋果宣布 CSAM 掃描,並引發科技業史無前例巨大爭議的幾天後。

很明顯,蘋果不希望在尷尬的時間點,讓這樁懸而未決且對自己不利的案子被當成與資安界對抗的證據。畢竟蘋果 CSAM 介紹頁面也提到,蘋果也和第三方安全專家就 NeuralHash 的有效性和安全性有合作。蘋果軟體 SVP Craig Federighi 接受採訪時也表示,歡迎安全專家來測驗 CSAM / NeuralHash。

不過剛與蘋果和解,幾天後 Corellium 又出招。

8 月 17 日,Corellium 公司四週年這天,發起「開放安全計畫」招募研究員,給最優秀的三組申請者每組 5,000 美元,以及長達一年的 Corellium 技術工具免費使用權。

(Source:Corellium)

計畫主題是「驗證設備廠商的安全宣傳」。這廠商是誰也不用猜了。

(Source:Corellium)

「我們讚賞蘋果的承諾,允許第三方研究人員問責,也相信我們的平台非常適合研究者實現目標。」Corellium 官網如此寫。不意外這再次激怒蘋果,但可能太生氣了,這次蘋果法務團隊不按牌理出牌。Corellium 宣布計畫的第二天,蘋果就撕毀和解協議,對去年 12 月法院「Coreelium 行為不構成侵犯版權」裁決提出上訴。

現在讀者應能理解逆向工程 NeuralHash 的開發者只提供破解法,沒有直接公開演算法。畢竟,這世界可能沒多少人想跟蘋果打官司。

(本文由 品玩 授權轉載;首圖來源:蘋果

延伸閱讀: