一鍵脫衣 AI 再次驚現!Deepfake 正在盜用你的自拍照,製造大量色情圖片

作者 | 發布日期 2020 年 10 月 25 日 0:00 | 分類 AI 人工智慧 , 成人 , 社群 line share follow us in feedly line share
一鍵脫衣 AI 再次驚現!Deepfake 正在盜用你的自拍照,製造大量色情圖片


還記得「一鍵脫衣 AI」DeepNude 嗎?2019 年 6 月,這款軟體發布僅幾個小時,就因訪問請求過大迅速當機,原因是它可以一鍵脫掉女性衣服,製造大量色情圖片。

近日,這款色情的軟體再次出現在通訊軟體 Telegram 中。截至目前為止,該軟體在 Telegram 平台已經公開發布了約 104,852 張色情圖片,這還不包括私下分享傳播的圖片。更重要的是,這些圖片 70% 全部來自社群平台的真實女性,甚至包括未成年人。

也就是說,日常在 Facebook 等社群媒體中分享的自拍照,很可能會被人用來製造「裸照」。

DeepNude 盯上了「可能認識的人」

這項調查來自美國阿姆斯特丹的網路安全公司 Sensity,這家公司專注於所謂的「視覺威脅情報」,尤其是那些深度造假影片的傳播。他們調查發現,截至 7 月底,Telegram 平台 7 個主要頻道均在使用 DeepNude 軟體。

(Source:shutterstock)

該軟體吸引了全球 103,585 名用戶,其中用戶最多的頻道有 45,615 人。這些用戶大部分聚集在俄羅斯及東歐周邊地區。

據了解,這款軟體爆火的原因有 3 點:

  1. 操作非常簡單,只需要一張照片,上傳至軟體後,幾秒就可以自動生成裸照,不需要任何技術知識或者專門的硬體支援。
  2. 所有人免費使用。不過它也有盈利模式,未付費用戶獲得的裸照後會打上浮水印標籤或僅局部裸露,用戶支付 1.28 美元才可以獲得無浮水印圖片,但使用權限僅限 7 天 100 張。
  3. 可以獲得熟悉的人的裸照。Deepfake 偽造色情影片已經屢見不鮮,主要以為名人為目標。但根據一項民意調查顯示,大多數用戶對「現實生活中認識的女性」更感興趣,占比達到了 63%。

而 DeepNude 恰好提供了這樣的支援,任何用戶使用任何照片都可以製成裸照。

從 Telegram 平台的公開數據來看,許多照片中的女性都是普通上班族、大學生,而且這些照片都是來自 TikTok、Instagram、Facebook 等平台的自拍照。

需要注意的是,這款造假軟體只針對女性。如果上傳一張男性或者其他任何無生命照片,系統也會自動被替換成女生的身體,並辨識成相應的器官。

Sensity 首席科學家喬治‧帕特里尼(Giorgio Patrini)指出,目前已經超過 680,000 名女性在不知情的情況下被偽造成了色情圖片,並被上傳到公共平台。

目前,Sensity 公司的相關調查數據已經對外揭露,相關執法部門也對此展開調查。而至此,為何允許該色情軟體出現在社群平台中,Telegram 一直未給出公開答覆。

另外,據 Sensity 調查顯示,除了Telegram之外,另一家俄羅斯社群媒體平台 VK 也發現了 DeepNude,而且它已經開始公開為軟體打廣告。

不過,此事件一出後,相關負責人便立刻出面回應否認了這個說法。同時他強調:

VK 不容忍平台上出現此類內容或連結,同時也會阻止分發它們的社群。另外,此類社群或連結並未使用 VK 廣告工具進行宣傳,我們也進行額外的檢查,並阻止不當內容的出現。

創建者:我不是偷窺狂

然而,就是這樣一款色情造假軟體,它的創建初心竟然是出於好奇心和對技術的熱忱。

2019 年 6 月 27 日,DeepNude 軟體首次公開上線,隨後不久,系統就因為用戶訪問量過大而當機。

但就是這幾個小時,這款針對女性的「一鍵脫衣 AI」已經引起軒然大波。

有關「侵犯隱私、性別歧視」等指責聲在 Twitter、Reddit 等各大社群媒體平台層出不窮。深度學習先驅吳恩達(Andrew Ng)還發推文稱,DeepNude 是「人工智慧最令人噁心的應用之一」。

而對於外界的種種指責,它的開發者阿爾貝托(Alberto)卻公開回應稱:

「這個世界還沒為 DeepNude 做好準備!」「我不是偷窺狂。我是技術的愛好者。」

同時他強調,「我不關心裸照之類的。有些人自己不想用,就想著讓別人也用不上,這很蠢。對技術知識封鎖和審查,無法阻止它的擴散和傳播。」

據了解,Alberto 的研發靈感是來自某雜誌上的一個 X射線眼鏡。他對 AI 技術非常感興趣,當發現 GAN 網路能夠把白天照片轉換成黑夜照片後,便意識到同樣利用 GAN 也可以將一張穿衣服的照片轉換成一張不穿衣服的照片。正是出於這樣的好奇,最終研發出了 DeepNude。

具體來說,DeepNud 是基於稱為「pix2pix」的開源「圖像到圖像翻譯」軟體構建的,該軟體於 2018 年由加州大學柏克萊分校的 AI 研究人員首次發現。其核心技術 GAN 能夠透過辨識真實圖像,創造自己的偽造品。比如將白天到夜晚的風景照片或從黑白變為全彩色。

但不管是出於獵奇,還對技術研發的準確,這款軟體確實是濫用 AI 技術產生了惡劣的影響。如知名作家尼娜‧揚科維奇(Nina Jankowicz)表示,DeepNude 對世界各地的女性都有巨大影響,尤其是在俄羅斯等社會較為保守的國家。如果公開發表令人信服但虛假的裸照,受害者可能會失去工作,或者面臨伴侶暴力。

Sensity 公司也表示,這些虛假的色情圖像或影片很可能被用做勒索、騷擾的手段。

Deepfake 威脅,正在肆虐

不僅是 DeepNude,所有 Deepfake 軟體均是如此。如波士頓大學法學教授 Danielle Citron 所說,「Deepfake 已經成為了攻擊女性強有力的武器」。

Deepfake 深度造假軟體背後的核心技術都是生成式對抗網路 GAN。GAN 透過生成器與鑑別器之間的相互 Battle 來製造逼真的虛假圖像、影片或語音。

自 2017 年,Deepfake 首次被用於製作色情影片後──神力女超人下海事件,社群上便開始大量充斥著此類影片,據統計,在所有 Deepfake 創作影片中,色情影片占據 96%。隨著技術的不斷升級,Deepfake 的逼真程度已經達到了肉眼難以分辨的地步,同時它也開始被應用到政治領域。如川普、歐巴馬、馬斯克等名人政客的虛假換臉影片已屢見不鮮。

據普林斯頓大學教授 Jacob Shapiro 最新研究結果顯示,2013 年至 2019 年期間,社群媒體已累計發起 96 次政治運動,而其中,93% 為原創內容,86% 放大了已有內容,74% 歪曲客觀事實。而其目的多為詆毀政客、誤導公眾、激化矛盾等。

為了應對 Deepfake 軟體帶來的威脅和挑戰,2019 年,Facebook 斥巨資發起「Deepfake 檢測挑戰賽」(Deepfake Detection Challenge,DFDC)。今年 Deepfake 檢測的辨識準確率已經達到了 82.56%。

除此之外,學術界以及其他企業團隊也在研發 Deepfake 的檢測方式。但儘管檢測方式越來越多,準確度越來越高,製造虛假影片的趨勢依然沒有得到很好的抑制。

究其原因,其一可能是 AI 製造虛假內容越來越方便,如 DeepNude,只需要一張照片,人人都可以上手。如同 Sensity 公司負責人所說,DeepNude 目前還處於法律的灰色地帶。

因此,要想關上 Deepfake 潘朵拉的魔盒,需要制度約束和人心向善的引導。

(本文由 雷鋒網 授權轉載;首圖來源:pixabay

延伸閱讀: