僅需 7 張照片,任何人都能「無中生你」

作者 | 發布日期 2022 年 12 月 24 日 0:00 | 分類 AI 人工智慧 line share follow us in feedly line share
僅需 7 張照片,任何人都能「無中生你」


下圖是位小學男老師光上身在學校教室自拍。如果這是真的照片,這位名叫 John 的男性很可能被學校直接開除。

但好在John是Arts Technica為了人工智慧社交圖片實驗虛構的人物。John人物設定是普通小學老師,和大部分人一樣,過去12年John喜歡在Facebook上傳工作紀錄、家庭生活、假期照片等。

Arts Technica團隊選取7張有John的照片,再使用最近很紅的Stable Diffusion和Google研究院Dreambooth兩樣AIGC工具,在社群媒體產生真假難辨的兩個John。

John從普通、喜歡分享日常生活的英文老師,一下變成喜歡在教室、公眾場所脫衣自拍的「危險分子」,一下又變成喜歡穿各種奇裝異服的怪咖。翻看照片,每一張似乎都不是John,卻有John的臉。現在藉助各種免費AIGC工具,John的經歷可能會常發生在普通人身上。

當AIGC遇上真人

Arts Technica表示,一開始計劃實驗時,是徵集願意分享社群媒體照片的志願者,但由於產生照片太真實、潛在危險太大,故放棄使用真人照,選擇先用AI產生虛擬人物John。

實驗結果讓他們感覺到,目前技術環境每個普通人都處於潛在危險中。過程非常簡單:從社群媒體拿到7張有清楚臉部的照片,再使用網路開源免費Stable Diffusion及Dreambooth合成程式,就能輸入描述文字,產生各種這個人的圖片。如網友用馬斯克公開照訓練,產生各種圖片。

(Source:Reddit)

一些人也用維基百科聯合創辦人Jimmy Wales的公開照片訓練,把溫文儒雅的企業家變成運動健美先生。

先快速回顧一下Stable Diffusion和Dreambooth功能。Stable Diffusion是文字轉圖片模型,只花幾秒就能產生比同類技術解析度、清晰度更高,更具真實性或藝術性的圖片。和同類型AI產生圖片相比,Stable Diffusion結果更寫實。

此外,Stable Diffusion還有重要特點就是完全免費,所有代碼都在GitHub公開,任何人都能用。正是「寫實」和「開源」兩個特性,讓它在DALL‧E、Imagen等封閉及半封閉同類產品中「殺」出一條路。

Dreambooth則是來自Google AI實驗室的從文本到圖像「個性化」(可適應使用者特定圖像需求)擴散模型,特點是只需幾張(通常 3~5 張)指定物體照片和相關名詞(如狗)輸入,即可透過文字描述讓指定物體出現在使用者想產生的場景。

如輸入汽車圖片,就可以下指令毫不費力改變它的顏色。輸入鬆獅犬照片,可保留臉部特徵同時變成熊、貓熊、獅子等,也可幫牠穿各種衣服置身不同場景。

(Source:DreamBooth

本來Stable Diffusion聚焦文字產生創意圖片,Dreambooth則是有條件限制改造圖片,兩個工具並沒有直接交集,奈何廣大網友想像力和行動力都太強大,將兩個開源產品結合,很快就做出兼具Stable Diffusion和Dreambooth功能的新工具。

你可用Dreambooth將幾張免費圖片當作訓練圖,產生目標後,再結合Stable Diffusion強大的文字轉化功能,就可讓指定目標以想要形式出現。

娛樂之外,也打開了潘朵拉盒子

新玩法出現後,網友就像發現新大陸,紛紛嘗試改造自己的照片。有人化身為西部牛仔、有人走進中世紀油畫、有人變成鐵血戰士等。同時各種關於教普通人如何使用Stable Diffusion+Dreambooth工具的教程影片、文章也開始出現。

(Source:James Cunliffe)

當大家都開心PO出自己的傑作,大誇有趣同時,也有很多人關注技術背後的巨大風險。相較討論多次的Deepfake技術,AIGC類工具讓偽造從換臉直接進化到無中生有,也就是說,任何人一句話就可憑空「變出」你。此外「偽造」技術的門檻也更低,跟著YouTube影片學10分鐘,沒有技術背景的小白也能輕鬆掌握。

據統計,全世界超過40億人會用社群媒體,如果你曾在社群媒體上傳照片,一旦有人動機不良,很容易就能用這些照造假和濫用,最後可能是暴力照、不雅照、侮辱照,非常容易拿來栽贓嫁禍、校園霸凌、造謠傷害等。

從Stable Diffusion產生圖片看,仔細觀察還是能分辨人物真假,但問題在近幾年AIGC技術進步非常迅速,人們或許很快就無法用肉眼分辨產生照和真實照的差別了。

▲ 加強版Stable Diffusion圖。

即使是經不起推敲的照片,但現在負面資訊的破壞力相當驚人。如文章開頭的John,有人看到他在教室裡或其他不雅照時,無論真假先抓再說,但僅是懷疑或謠言,就能毀掉John的聲譽和事業。就像丹麥電影〈狩獵〉,即使最後證明小女孩指控男老師猥褻都是編造的,但傳言造成的惡意依然在男老師生活如影隨形。

嘗試用「魔法打敗魔法」

開發人員早意識到AIGC可能的危害。當Google宣布推出Imagen、Dreambooth時,解釋文件都避免使用真人照,而是用物品和可愛動物圖舉例說明。

不僅Google,DALL‧E等同類工具也無不如此。麻省理工評論曾強烈質疑這種轉移大眾注意力的手法:「我們只看到各種可愛圖,看不到任何仇恨刻板印象、種族主義、暴力、性別歧視。但即使不說,我們也清楚的知道它們就在那裡。」

針對這問題,很多平台也嘗試用各種方法解決。OpenAI和Google等解決辦法是將工具關入籠子,僅開放少數受信任使用者使用;Stability AI最新2.0版訓練資料庫刪除大部分含不良訊息的數據,同時軟體許可協定明確規定不允許創建人物圖像。

但政策性規定畢竟指標不治本,近期Stable Diffusion等平台也嘗試使用技術方法解決問題,包括「不可見浮水印」,人眼看不到,系統卻可辨識圖片真假,同時保護編輯和再生。

此外訓練源頭──原始圖片保護,11月MIT研究員宣布開發專門針對AI照片編輯的PhotoGuard技術,阻止AI使用某些圖像訓練。如同樣肉眼看不出差別的照片,使用PhotoGuard後,AI便無法提取到夠多有效資訊。

(Source:Gradient Science)

最近一兩年AIGC技術突飛猛進,大批圖像產生工具和ChatGPT爆紅,讓大家意識到老生常談的人工智慧時代似乎近在眼前。不久前Stable Diffusion研究人員表示,Stable Diffusion很可能一年內就能登上智慧手機,很多同類工具也著手用更輕量設備訓練模型,如ChatGPT各種外掛程式頗受使用者歡迎。人們可能很快就會看到,人工智慧推動的創意產出未來幾年爆炸式增長。

但隨著AIGC走向大眾化、平民化,深度合成內容製作的技術門檻越來越低,普通人僅需少量照片、音訊、影像、文本等數據,就能模糊資訊真實和虛假的邊界。 還未推出相關法律規範下,技術一旦遭濫用,將會給個人、企業造成巨大風險與危害。

自從今年AI繪畫類工具爆紅,很多人目光放在AI顛覆藝術創作,但AI不僅改變創作模式,可能也對社會秩序發起挑戰。有條件限制AI能力,可能是讓AIGC改變我們生活前,必須先解決的問題。

(本文由 品玩 授權轉載;首圖來源:shutterstock)

延伸閱讀: