Google 的超強 AI 工具,怎麼會被拿來做換臉 A 片?

作者 | 發布日期 2018 年 02 月 18 日 12:00 | 分類 AI 人工智慧 , Google , 開放資料 follow us in feedly

科技始終來自於人性,因此在 AI 工具的協助下,現在有一群人專門拿艾瑪·華森、艾米莉亞·克拉克、娜塔莉·波曼等女明星的臉移花接木,放在 A 片女演員的頭上,製作出各種詭異的影片,在 Reddit 論壇引發換臉熱潮,餵養男性網友的瘋狂幻想。這一切是怎麼發生的?



2015 年,Google 宣布將釋出開發 AI 演算法的內部工具 TensorFlow,進而改變了全世界的 AI 研究與發展方向。用 Google 執行長的話來說,AI 科技的影響力可能如電力般深遠,而 Google 提供的工具是開放、免費的,入門 AI 的門檻也從博士學位降低到只需要一台筆電。

但 TensorFlow 的力量,現在已經超出 Google 的控制。兩年多來,學術界和矽谷用 TensorFlow 締造不少引人注目的成果,但匿名 Reddit 論壇用戶 deepfakes 成了最新焦點。

Deepfakes 以 AI 軟體為基礎,打造了幾乎能自動無縫縫製任何臉部影像到影片的功能。你可以輕易想像這會被拿來做什麼事。《Motherboard》報導,這個軟體被拿來把任何人的臉(例如女明星或臉友)放上色情片女演員的身體。

《Motherboard》首先披露消息後,Deepfakes 創造了自己的 subreddit,累積 9.1 萬多名訂戶。另一名 Reddit 用戶 deepfakeapp 也釋出一個叫做 FakeApp 的工具,讓任何人都可以下載這個 AI 軟體、自行使用。目前 Reddit 已經禁了這個社群,理由是這違反了該網站對於非自願色情的規範。

根據 FakeApp 的使用指南,這項軟體是以 TensorFlow 為基礎打造的。Google 員工曾以稍微不同的設定和主題,用 TensorFlow 做過類似的事,訓練演算法從塗鴉中產生影像。Deepfakes 認為這還有許多好玩的用法,例如把尼可拉斯凱吉的臉放到各種不同電影,但我們知道,訂閱該討論區的 9.1 萬玩家都是為了 A 片。

TensorFlow 這項開源資源帶來許多有益人類的成果,例如可能偵測出癌症的演算法,FakeApp 的存在則代表著開源的黑暗面。

Google(還有微軟、亞馬遜、臉書)都鬆綁了許多技術力,開放全世界使用,現在任何人都可以下載 AI 軟體,盡情實驗、創造,這代表可以假造政治演說(使用會模仿聲音的 AI),也能產生假的報復性色情影像。所有數位媒介都是一連串 1 和 0,AI 則能透過巧妙安排產生出原本不曾存在的東西。

由於這個軟體可以直接在一台電腦上獨自運作,當軟體離開伺服器,大型科技公司也就喪失了控制權。開源理念的教條,也代表這些公司無需對後果感到愧疚或覺得有責任。

換臉 A 片風波也不足以改變現狀,因為免費軟體對這些企業來說是門好生意,讓更多人研發 AI。每家大型科技公司都陷入盡可能爭搶 AI 人才的爭奪戰,愈多人湧入這個領域愈好。這些免費勞工會寫出程式碼,啟發新產品,幫忙找出 bug、修正程式,大學也會訓練大學生和研究生使用這個軟體,提供一個好管道,增加熟悉公司內部工具的新人才。

AT&T 先進科技副總裁吉爾柏(Mazin Gilbert)說:「大家過去 5 年都在談機器學習的大突破,但真正的大突破不是演算法,其實演算法跟 1970、1980、1990 年代沒兩樣,真正的突破是開源。」

「開源降低了入門障礙,所以現在口袋最深的不再是 IBM,而是 Google 和 Facebook。」

隨著輿論對 AI 開發倫理的重視,開源軟體議題也複雜化。Google 目前提供的工具,並非用來創造《魔鬼終結者》的天網(Skynet)等恐怖威脅,但依然可能造成真正的傷害。Google、微軟等提供開源 AI 架構的企業一直大聲疾呼 AI 倫理的重要性,也讓旗下科學家展開相關研究,但這些公司並未提供任何下載免費軟體的指導原則,像 TensorFlow 官網就沒有任何倫理相關的指南說明。

讓 AI 不再開源似乎也不是理想的解決方法,ArXiv、Github 等網站免費分享的資訊,代表相關人士可以發現潛在的陷阱並要求問責。由於這項核心科技的開發人員不會願意為換臉 A 片的出現負責,責任將落在這些影像分享的平台。例如,Gfycat 刪除所有 deepfakes 製作的 GIF 動圖,Reddit 禁止該討論區,PornHub 也表示一發現有類似影片也會刪除。但 deepfakes.club 網站依然存在於主要社交平台之外。

換臉 A 片不但傷害了被換臉的女明星,也貶低了 A 片女演員的專業作品,把她們當成「可替換的」,在她們不知情、不同意、不能控制的情況下散播這些數位操縱;這項科技可以允用在名人身上,不可避免地當然有人會拿來使用在一般人身上,如班花、同事、小孩、同學、前女友,做為一種報復性色情手段,數位性騷擾將進入黃金時代,任何女性只要被拍太多照片都得疑心,更不用說上傳照片到社群網站時得多加思考權限問題。

向來疾呼要對大數據問責的數學家歐尼兒(Cathy O’Neill)對色情換臉並不意外,她說這早已存在多年。她建議,在假新聞當道的時代,我們最好對任何所見、所聽、所讀、所聞抱持懷疑,因為就連聲音也是可以編輯的。