臉部辨識技術走到十字路口?

作者 | 發布日期 2019 年 01 月 21 日 9:00 | 分類 AI 人工智慧 , 生物科技 , 科技政策 follow us in feedly


近日,臉部辨識技術又遇到「突發事件」。15 日,由 90 個倡議團體組成的小組寫了一封信給三巨頭 AAM(亞馬遜、Google、微軟),要求 3 家公司承諾不出售臉部辨識技術給政府。團體包括美國公民自由聯盟 ACLU、難民移民教育和法律服務中心 RAICES、電子前廊基金會 EFF 等重要組織。

這封信一公開,給了三巨頭非常大的社會輿論壓力。3 家公司都是臉部辨識技術系統領域的佼佼者,傾注了大量精力與努力。加州公民自由聯盟 ACLU 主任 Nicole Ozer 說:「我們正用人臉辨識技術監控交通路口,這些公司現在的選擇,將決定下一代時時生活在政府的監控下。比如,是否參加遊行抗議活動,監控禮拜場所,甚至日常生活。」

18 日稍早,據彭博社消息,亞馬遜公司激進派股東就亞馬遜向政府機構兜售臉部辨識軟體提交決議,建議停止銷售行為,直到該技術認定不會對公民權益產生威脅。該項決議將在 2019 年稍晚於亞馬遜年度大會表決。非營利機構 Open MIC 董事 Michael Connor 表示,亞馬遜向政府出售 Rekognition,將自身和股東置於風險中。ACLU 則認為,臉部辨識技術很容易誤判深色皮膚人種。

十字路口

這絕不是 ACLU 等團體「小題大做」。2018 年 12 月,美國特勤局公布關於白宮周圍部署臉部辨識監控測試系統計畫,目的在於確定可能對總統構成威脅的「目標嫌疑人」。文件於 2018 年 11 月底公布,顯示臉部辨識系統將對白宮公用區域錄下的閉路影片與影像資料庫比對,以監控、追蹤員工。

測試已於 2018 年 11 月 19 日啟動,於 2019 年 月 30 日結束。系統執行時,臉部符合的影像將會儲存,然後由審核人員確認並移除。文件承認對不知情的訪客,執行臉部辨識技術時可能具侵略性。整個白宮已成為「高度監控化的區域」,平民可選擇迴避。當時 ACLU 公開表示,雖然白宮區域監控看似範圍狹窄,但開啟了潘多拉的盒子,即在公用場所對普通平民進行毫無理由的審查,跨越了隱私保護的邊界。

美國國土安全部門(美國特勤局有參與)已將臉部辨識技術用於掃描國內、國際航班乘客,計劃可能未來幾年推廣到美國更多機場。與此同時,美國一部分公安機構利用亞馬遜臉部辨識工具 Rekognition,即時掃描影片。例如,華盛頓警務室,奧蘭多市為試點,近期有進行 Rekognition 第二次測試。

日,Nextgov 披露美國聯邦調查局正在試用亞馬遜臉部辨識軟體 Rekognition,用於反恐調查。有消息稱,2018 年夏天,亞馬遜就提供移民和海關執法人員 Rekognition 軟體。亞馬遜現為美國政府最重要的雲端技術 AWS 提供商,美國中情局、國防部都是客戶。但其臉部辨識軟體在政府及社會公用部門使用的詳細情況並不被外界所知。

臉部辨識技術受到民間團體、社會輿論,以及監管、立法機構的激烈反應,美國立法委員多次致信亞馬遜,要求提供關於亞馬遜 Rekognition 的更多資訊。信中提到,「非常擔憂,該產品有嚴重的準確性問題,給有色人種帶來打破平衡的精神負擔,並扼殺美國人在公眾場合行使第一修正法案的權利。」一方面,臉部辨識技術巨頭加快布局、侵入社會各領域的應用、機構;另一方面,巨頭內部、巨頭之間對臉部辨識技術的態度,也頗為猶豫、曖昧,矛盾重重。

近期 Google、微軟承認涉及臉部辨識服務的風險,以及被別有用心者濫用和監視的可能性。去年 12 月,Google 宣布在漏洞無法有效制止前,不會出售 Vision API。微軟總裁 Brad Smith 提出一些保護性措施,以防止濫用。包括國會通過法律限制技術濫用,具體而言,例如減少偏見,必須通過法院允許才可追蹤個人。

去年底,Brad Smith 在布魯金斯學會的演講表示擔憂:

我們認為,2019 年政府必須開始透過法律來規範這項技術。臉部辨識技術已從充滿邪惡的盒子裡出現。除非我們採取行動,否則 5 年之後,當我們覺醒,將會發現臉部辨識加劇社會負面問題傳遞,到那時,這些挑戰會更困難。

我們並不認為企業可透過商業競爭服務世界。科技公司被迫在社會責任與市場成功之間選擇。防止惡性競爭的唯一方法是建立有效健康的市場責任制平台。堅實地要求企業確保該項技術開發和使用受法律約束。

相比之下,微軟 CEO Satya Nadella 更直接,「一些技術一旦遭濫用,將對社會造成很大的危害,政府應該監管」、「臉部辨識技術太可怕了,絕對是一場徹頭徹尾的不良競爭」、「以競爭的名義,做任何沒有界限的交易,對產業或整個社會都不會帶來好結果。」這番話語既指向自身,也暗指競爭對手亞馬遜,表達對 Rekognition 強烈的不滿。

事出有因

臉部辨識為何引起如此大的爭議?首先,涉及準確率的問題,臉部辨識系統可能出現重大錯誤。去年的測試中,系統錯誤地將 28 名國會議員與資料庫的搶劫犯比對成功。儘管後期人工糾正,但當工具範圍擴大,在一定程度上,會導致一些人短期被當作通緝犯。

特別是辨別有色人種時,容易產生較大誤差。原因在於不同人種的資料模型、演算法不同,需要分開部署。《紐約時報》曾報導,麻省理工學院媒體實驗室對微軟、IBM、曠視科技人臉辨識系統的試驗研究。結果顯示有色人種中,三者辨別非白種人的錯誤率高達 20%~30%,很可能加劇社會種族歧視和偏見等問題。

其次,從隱私角度看,臉部辨識技術涉嫌侵犯個人隱私權。這種技術的危害在於,很容易在未經許可的情況下,廣泛濫用而不被一般人察覺,個人隱私無所遁形。更重要的是,一旦臉部辨識技術用於軍事,將帶給社會毀滅性的打擊。

2018 年 月,Google 與軍方合作的 Maven 殺人機器人計畫持續發酵,千多名 Google 員工抗議,數十名員工請辭。國際機器人武器控制委員會 ICRAC 向 Google CEO Sundar Pichai、總裁 Lawrence Edward PageDiane Greene、李飛飛呼籲停止專案,要求 Google 承諾不把該技術用於軍事武器。

2017 年,網路流傳一段關於微型殺人機器人的影片,機器人只有手掌一半大,可輕易逃避人類捕捉。透過視覺系統定位目標,發射彈藥或有毒化學物質,殺害無辜的平民。基於人工智慧的臉部辨識技術,同時整合快速定位、無人智慧集群技術、靈敏感測器、資訊網路等多種高階科技技術。當時這段「模擬」影片已成為現實,早在 2016 年美國就將機器人用於警方制服犯罪分子,而俄羅斯也傳出一直祕密研發殺人機器人,用於監控和偵測,並整合爆炸系統用以軍事防御。

除了以上技術、倫理、政治正確等原因,臉部辨識技術在 GDPR 下,如何保證有效的資料庫增進技術,也將成為臉部辨識公司的巨大挑戰。有趣的是,相同的事物在不同地區,受到截然不同的對待。近年,中國一直努力推行複雜的臉部辨識技術,相關技術在安防、金融、日常 端產品大量使用。相關資料顯示,中國目前監控鏡頭裝載數量已突破 2 億,是美國 4 倍之多。

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)

延伸閱讀: