【冷閱讀】要認知到,網路與 AI 的發展已讓這個世界沒有隱私

作者 | 發布日期 2018 年 07 月 02 日 9:00 | 分類 網路 , 資訊安全 follow us in feedly

亞馬遜、Google 等相關大公司販售人工智慧技術給國防部、警察機構等地方,引起網路一陣軒然大波,不但 Google 自己員工抗議、亞馬遜也遭隱私團體抗議,認為人工智慧技術交給軍方跟警察,會造就政府權力坐大,最終變成難以收拾的後果。



這樣的想法當然完全正確,但其實這已不是我們所能阻止的事。今天如果 Google、亞馬遜不跟軍方、政府合作,明天也會有其他在 AI 領域鑽研的公司與政府部門合作,相較於這兩間公司,接下來承接相關技術的公司可能更愛錢,根本不在乎這些技術交給政府背後的疑慮。甚至更有可能,相關技術成熟度越來越高、懂得怎麼運用、餵養軍事、監控用 AI 的研發者也越來越多,政府自己開發這些技術的可能性也會隨著時間成長。

想想讓史諾登不得不避走海外的稜鏡計畫,美國政府啟動這計畫前可沒有問過納稅人的意見。

且讓我們換另一個角度想想,這個世界其實沒有我們想像的那麼和平。包括恐怖組織的威脅、越來越多樣化的犯罪,都讓這個世界籠罩在另一層面的陰影下。如果許多人認為隱私代表自由,講到不自由毋寧死,這種隱私比人命還重要的說法,那我想你應該要抵制上飛機接受檢查、液體都不能帶進關的規定,順便在這裡說件殘酷的事實──如果哪天藍牙就可以遙控液體炸彈,飛機不但很快全面禁帶液體,甚至託運都不行。

但很明顯,飛機安檢極度侵犯你的隱私,如果隱私真的比人命重要,那你應該要優先大幅抵制這行為。

隱私權重要嗎?當然,隱私權是防止政府坐大的第一步,很明顯越不注重隱私權的國家,政府的權力就越大。但為了保護隱私權,我們就必須忍受犯罪、恐怖主義,甚至隨機殺人帶給社會的不安。而且要了解的是,當恐怖攻擊、犯罪、隨機殺人等事件越來越多時,人民就會願意給予政府更大的權力監控一切──畢竟人命關天,大部分人會選擇保護自己的生活。

以上言論聽起來好像危言聳聽,但其實這個世界一步步朝著蒐集你所有訊息的方向邁進。為了防止詐騙,許多商業訊息網站需要越來越多你的真實資料,為了遏止更高的犯罪率,全世界的街邊攝影機都將可臉部辨識預防犯罪──差別只在街邊攝影機多或少。

除了預防犯罪,隱私權的商業應用也逐步從瀏覽器儲存的 Cookie 展開,廣告商藉由各種免費服務蒐集資訊並藉以投放廣告,都是隱私權應用商業化最直接的問題。但相較軍事化、犯罪預防化的應用來說,這部分問題沒有這麼嚴重,頂多看到一堆廣告的時候有點不爽。

不爽被蒐集個資?用付費服務

來自歐盟與其他團體的壓力,Google 去年開始就宣布不掃描 Gmail 用戶的郵件為廣告投放用,但其實更早之前,Google 就表示付費 G Suite 企業用戶不會被掃描。這代表什麼?代表當你付錢時,企業再隨便蒐集你的個資為廣告推廣就不見得是合理行為。

▲ Google 很明白的指出付費的 G Suite 對資料有不同的處理方式。

這是極為簡單的道理,羊毛出在羊身上,你不可能同時需要免費的服務,卻又希望對方不要拿你的隱私權營利。最好的方式莫過於「使用付費服務」,想想你從未在 Netflix 看到廣告,就是因為你付錢使用 Netflix 的服務,而愛奇藝、巴哈姆特電玩瘋等,甚至去某些地方下載免費的影片,你必然會看到廣告(最著名的就是澳門首家線上賭場上線啦~),這些都是使用免費服務必須承擔的後果。

內容網站的廣告也一樣,許多人看待網站的廣告猶如見到鬼,只要有廣告就認為這是邪惡的東西,甚至使用 ADblock 等軟體阻擋廣告,不准他人營利,自己又要享受免費內容,天底下哪有這麼好的事?如果你願意付錢看文章,那網站也不見得需要廣告,廣告代理商(如 Google)也沒辦法藉由廣告跟關鍵字獲取你的興趣與個資(對,筆者覺得如果你裝 ADBlock 看《科技新報》是不對的)。

當然,這個世界目前還沒有夠大、付費的社群網站可以用,如果你覺得 Facebook、Twitter 拿你個資讓你很不爽,大可不要用,或對社群網站做最大限度的「閒置化」,就是不要發表任何言論、別分享任何言論,或可學很多人的做法:利用發一些品牌、雞湯文、炫耀文,在社群網站把自己打造成另外一個人。

(Source:pixabay

如何理解「臉部辨識」的界線與世界

再拿機場自動通關當例子,許多人可能沾沾自喜地以為,不辦理自動通關就代表你的臉部資料沒有存在國家資料庫,事實上最新的台灣身分證拍照規定,已可把這些照片簡單地轉化為你的「臉部辨識」基礎。這些資料一直都存在國家的資料庫裡,只看要不要拿出來用而已。

換句話說,對一個國家而言,要不要使用面孔辨識追蹤你,就端看法令、犯罪率提升與否。由於臉部辨識的資料建立奠基於「餵養」(這已經是所有 AI 技術的重點了),因此這部分的餵養還牽涉「成本」──資料的儲存跟建立都是一筆成本負擔,更不用說牽涉到人員訓練,不是單純靠花錢可搞定的事情了。

由於國家預算有限,因此要付出如此大量的成本必然會需要企業協助(至少目前這個階段是如此),與其讓國家自行開發並擁有這樣的技術,不如讓國家跟相關的上市企業「租用」這樣的技術,不讓國家自主研究,一方面來說符合國家採購的基準、扶植相關產業(避免養出巨獸,不同的部門與技術需要跟不同的公司採買),同時私人公司只要夠大、夠愛惜羽毛,比起 4 年一任的政府更容易牽制。

商店是否加入這種面孔辨識系統需要商店本身同意,同時人們也需要明確的基準,讓人們自行決定是否要去會被臉孔辨識的商店,而街邊攝影機的數量也必須明確化,可以使用比例原則來檢視攝影機數量是否合理、有沒有必要?

最重要的是,所有「提用相關資料者的人都必須公開化」,只要有觸及這類敏感資訊的政府或相關人員,就必須要即時公布讓人可以查閱,所有相關資訊的經手人都必須負上責任,並加以濫用的刑責牽制,避免資料遭到濫用。

匿名化的個資到底有什麼好處?

這次的歐盟 GDPR 法案雖然引起了諸大風波,不過看起來許多跨國企業都因此重新建置了隱私權規定,目前來看對歐盟來說是成果豐碩的,先不論 GDPR 的整體規範是否合理,裡面有一個「儲存的訊息需要匿名化」的規定可說是保障隱私權中最重要的一個規範與技術。

使用者匿名化,就是讓使用者的資料必須要透過某些技術加密並打散,讓這些資料無法跟其他資料結合(比如說你在 Google 的搜尋資料無法跟 Facebook 的用戶資料串接),在同一個平台上的資料只能在同一個平台使用,彼此之間無法結合並勾勒出「你」的樣貌。如果用臉部辨識領域來舉例,那就是 Costco 的臉部辨識系統在儲存你於 Costco 的資料後,這些資料將會經過加密處理, Costco 本身可以透過解析了解你可能喜歡買些什麼、逛些什麼卻沒買,但沒有人可以知道你的臉長什麼樣子,你的臉部資訊在經過加密處理後成為一個 ID,而 Costco 也無法使用這個資料與執法單位合作,因為執法單位也無法透過這些加密後的面部 ID 知道這個人是誰。

簡單來說,使用者匿名的技術就是要讓資料之間彼此不能連結,因為連結可能造成更為可怕的效應,尤其是相關資料被執法部門掌握後更是如此。如果沒有透過匿名化技術將資料加密,那你在這個世界上做的每一個動作都可能受到監控。讓我們思考一個極端的例子,如果有一天大數據顯示,同時購買菜刀跟麻繩職業卻又不是廚師的人,有 0.00036% 的機率犯下綁票罪,高於平常人 5,000 倍、廚師的 100 倍,那你可能就會在買到菜刀跟麻繩後受到執法部門的關注,你可能在還沒犯罪就受到了執法部門的關注與注意,或許很多人覺得這樣的關注是好事,但當權力落到少數人手中,這種資料就容易被濫用。

你無法阻止,但一定要監督

除非你回頭不使用任何科技產品,否則現在的科技監控幾乎無所不在、難以預防,但你可以選擇「監督」,重點在於防範政府與其他單位過度使用你的個資,同時也可以學習如何不要在網路上過度暴露自己的資料,在一個科技年代,你使用的資料越多、你就有越大的風險。

(首圖來源:shutterstock)

延伸閱讀: