相對於其他科技公司的 AI 技術,蘋果 Apple Intelligence 隱私保護性最高,但這是在沒有整合 ChatGPT 的情況下,因為有了 ChatGPT 後,蘋果有再好的安全保護措施也仍不盡完美。此一論點是由專注於隱私的 Inrupt 公司安全主管所提,而 Inrupt 是由網際網路之父 Tim Berners-Lee 於 2018 年所創立的新創公司。
蘋果將 Apple Intelligence 大致分為三個層次,分別為
- 設備端:盡可能將請求留在設備端處理,不會將任何資料傳輸到伺服器中。
- 私有雲:在設備端無法處理的情況下,蘋果會首先選擇由自家的伺服器來處理請求。
- 外部伺服器:當設備端與自家伺服器皆無法處理的情況下,才會將用戶資料傳輸到 ChatGPT 中,且會詢問使用者是否願意開放權限給 ChatGPT。
蘋果會將 Apple Intelligence 分為此三層次,主因就在於希望能確保用戶隱私。而當使用者將請求傳遞到 ChatGPT 時,蘋果也會套用進一步的保護;蘋果對所有向 ChatGPT 發送的資訊都要求匿名化,因此 OpenAI 也無法知道是誰發出了這樣的請求,也無法得知是誰收到這樣的回應。蘋果與 OpenAI 的協議中也確保了這些用戶對話數據不會作為 ChatGPT 模型的訓練素材。
但即便如此,Inrupt 仍認為這樣的做法仍存有隱私風險。
Inrupt 安全架構主管 Bruce Schneier 指出,Apple Intelligence 的隱私保護性令人印象深刻,但並非完美。蘋果的目標是讓雲端 AI 的使用安全性不亞於 iPhone 的安全性。
不過 Schneier 也認為,針對某些數據,使用者仍得遵循 OpenAI 的規則;蘋果在向 OpenAI 發送查詢時雖然會刪除識別資訊,但其實有許多查詢中都包含大量的識別訊息。就本質上來說,AI 查詢這件事對用戶來說越來越個人化,用戶因為內容而被識別出來的風險就越大。
例如,當你要求 ChatGPT 替你規劃一個城市旅遊行成時,那麼你在特定週末在特定城市並列出特定興趣這件事,就足以讓 AI 辨認出是你。
但事實上沒有一個隱私保護是完善的,雖然 ChatGPT 可以透過對話資料的重新組合來識別出用戶身份,但其實每個人在聊天機器人對話時,對於個人資訊是否給出本來就應該要小心謹慎。
(首圖來源:影片截圖)