為了把 Deepfake 關進籠子,各大公司都拚了

作者 | 發布日期 2022 年 06 月 07 日 8:30 | 分類 Google , 數位內容 , 網路 line share follow us in feedly line share
為了把 Deepfake 關進籠子,各大公司都拚了


曾幾何時,Deepfake 在網路格外猖獗,新聞和成人內容成了「換臉」的重災區。

由於受眾廣泛,市面有不少現成Deepfake演算法,如DeepFaceLab(DFL)和FaceSwap。且深度學習技術普及,也有一些低成本甚至免費線上工具訓練演算法,讓好事之徒輕鬆達成目的。

常用工具之一就是Google Colab,免費託管Jupyter筆電服務。簡單來說,用戶可在Colab網頁執行複雜代碼,「白用」Google的GPU集群,訓練依賴高性能硬體的深度學習系統。

不過就在6月,Google終於對Colab線上訓練Deepfake痛下殺手。不久前DFL-Colab開發者chervonij發現,Google 6月中下旬將Deepfake加入Colab禁止項目列表,chervonij還表示,他最近嘗試用Colab執行自己的代碼,卻遇到以下提示:

您正在執行禁止代碼,有可能影響您未來使用Colab的能力。請查閱FAQ頁面專門列出的禁止行為。

然而這只是警告,並不是完全禁用,用戶仍可繼續執行代碼(continue anyway)。

有用戶發現,這次Google行動應針對DFL演算法,考慮到DFL是目前網路Deepfake最常用的演算法。另一個沒那麼流行的Deepfake演算法FaceSwap就較幸運,仍可在Colab執行且不會彈出提示。FaceSwap聯合開發者Matt Tora接受Unite.ai採訪時表示,並不認為Google此舉是出於道德:

Colab是偏向AI教育和研究方向的工具,規模化Deepfake訓練和Colab初衷背道而馳。

他還補充,自己的FaceSwap重要目的就是透過Deepfake教育用戶AI和深度學習模型的執行原理,言外之意可能這才是FaceSwap沒有被針對的理由。

出於保護運算資源,讓真正需要的用戶取得這些資源的目的,我理解Google的舉動。

Colab未來是否完全禁止Deepfake類執行?對不聽勸的用戶會有什麼懲罰?Google還未回應,問題暫時沒有答案。不過可確定的是,Google不希望Colab這種出於公益目的,提供免費訓練資源的平台,被Deepfake開發者濫用。

Google Research將Colab免費開放,目的是降低深度學習訓練的硬體門檻,甚至讓幾乎沒有寫程式背景的用戶也能輕鬆上手──即所謂的AI普及化(democratization of AI)。

由於區塊鏈業爆發增長,以及疫情影響,全球晶片(特別是GPU)仍處於缺貨狀態,如果為了節約資源禁用Colab執行Deepfake,確實可理解。不過除了Deepfake,Colab禁止其他行為也包括大眾認為的惡意行為,如駭客攻擊、暴力破解密碼等。

Deepfake使用門檻變高?

過去相當長的時間,對初入門和中等Deepfake影片創作者來說,想做到一般可接受畫質(480p或720p以上)內容輸出,卻沒有夠強的硬體,Colab幾乎是唯一選擇。畢竟Colab介面簡單,上手輕鬆,訓練性能達可接受程度,且還免費,沒有理由不用。前面提到的Deepfake演算法都支援Colab。

要討論Deepfake,很難避開新聞換臉影片和成人換臉。DFL主頁面直接把新聞影片換臉列為主要使用場景,且引導用戶社群也都默許明星或私人復仇式(revenge porn)換臉成人影片,使這類內容成為大宗。

現在Google禁止Deepfake類在Colab執行,勢必對私人Deepfake製作有不小打擊。這代表初級和中級Deepfake製作者將失去最重要的免費工具,繼續製作此類內容的成本顯著提高。不過內幕人士表示,最高級、將Deepfake當作生意的專業製作者,已達成完全「自主生產」。

這群人透過非法銷售及會員捐款等賺到不少錢,能投資更高級的設備。現在他們可製作解析度、清晰度和臉部還原度更高的Deepfake影片,不用靠Colab及雲端運算等線上服務,就能穩定生產和收入。

舉例想有2K甚至4K解析度和60fps幀率,且單片單次渲染用時在可接受的範圍(比如幾天),需要龐大的渲染農場,至少10台電腦,每台兩張支援SLI技術的輝達RTX高階顯卡,以及上百GB記憶體。這樣下來僅單台成本就相當高,更別提還要加上運轉時電費(渲染、冷卻等),可說是相當大筆的投資。

很遺憾對高階玩家來說,Google新政策完全發揮不了作用,只會提高社會更重視Deepfake的負面影響程度,要整個科技業都動起來,Deepfake的濫用問題才能解決。

打擊Deepfake,哪些公司開始行動?

Google

這的確不是Google第一次打擊Deepfake內容了,2019年Google Research就發表大型影片資料庫,是Google透過製作Deepfake影片,試圖了解演算法原理。對Google來說,需要提高辨識Deepfake的能力,商業化產品環境(最多就是YouTube影片),從源頭切斷惡意換臉影片的傳播途徑。第三方公司也可使用Google開放資料庫訓練Deepfake探測器。

不過近幾年Google Research確實沒有花太多心思打擊Deepfake,反而最近推出的Imagen,超高擬真度的文字生成圖片模型,效果非常驚人,引發一些批評。

微軟

微軟研究院2020年推出Deepfake探測技術,名為Microsoft Video Authenticator,能檢測畫面渲染邊界灰階數值的不正常變化,逐幀即時分析影片,且生成可信度分數(confidence score)。微軟也和紐時、BBC、加拿大廣播公司等媒體合作,檢測新聞業的Video Authenticator能力。

微軟也在Azure雲端運算平台加入媒體內容後設資料(metadata)校驗技術。修改過的影片可和原影片後設資料比對──和下載文件時比對MD5值差不多意思。

Meta

2020年Facebook宣布Facebook產品平台全面禁止Deepfake類影片。然而政策執行並不徹底,Instagram還是經常看見最近很出名的中國翻版馬斯克Deepfake影片(從TikTok轉發出去)。

業界面,Meta、亞馬遜AWS、微軟、MIT、UC柏克萊、牛津大學等公司和機構2019年共同發起Deepfake檢測挑戰賽,鼓勵更多、更優秀、更與時俱進的檢測技術出現。

Twitter

2020年Twitter封殺一批經常發Deepfake影片的帳號。不過對其他Deepfake內容,Twitter並沒有完全限制,而是標上「被修改的內容」(manipulated media)標籤,並提供第三方事實核查機構的檢測結果。

創業公司

OARO MEDIA:西班牙公司,提供一套多樣化數位簽名工具,減少Deepfake等修改內容傳播對客戶造成負面影響。

Sentinel:位於愛沙尼亞,主要開發Deepfake檢測模型。

Quantum+Integrity:瑞士公司,提供基於API的SaaS服務,可檢測各種圖像類內容,包括影片會議即時Deepfake、假身分證等。

國家(立法和行政)

中國:2020年印發的《法治社會建設實施綱要(2020~2025年)》進一步要求,對深度偽造等新技術應用,制定和完善規範管理辦法。

美國:2019年正式簽署生效的2020財年國防批准法含Deepfake相關條文,要求政府向立法機構通報涉及跨國、有組織、有政治目的Deepfake假資訊行為。

加州、紐約州和伊利諾伊州都有自己的Deepfake法律,主要目的是保護Deepfake受害者的權益。

歐盟:GDPR、歐盟人工智慧框架提議、版權保護框架、虛假資訊針對政策等高等級法律文件,都對可能和Deepfake有關事務交叉覆蓋。不過整個區域等級並沒有專門針對Deepfake的法律和政策。

成員國方面,荷蘭立法機構2020年曾要求政府制定打擊Deepfake成人影片的政策,以及表示會考慮將此問題寫入刑法。

(本文由 品玩 授權轉載;首圖來源:Pixabay

延伸閱讀: