你追蹤的「網紅」可能是假人?照片已不可信,連影像、聲音都能造假

作者 | 發布日期 2020 年 12 月 05 日 0:00 | 分類 數位內容 , 社群 , 網路 line share follow us in feedly line share
你追蹤的「網紅」可能是假人?照片已不可信,連影像、聲音都能造假


抖音上的網紅一定都是真人嗎?答案還真不一定。最近國外出現了一批販售「假人」的網站,針對所有人開放,只要付費就能透過 API 快速獲取一個假人 IP,而且也不貴,一個 2.99 美元。

先來看看它們的成品。

這些擁有光滑皮膚的人臉照,是不是像極了社群平台的網紅照?可能你會懷疑他用了美顏相機瘦臉了,但肯定想不到他們都是不存在的「假人」

不只如此,這個名為 Generated.Photos 的網站還為購買者提供了極大的發揮空間,不管是年齡、容貌、膚色、種族、性別,甚至是情緒,統統都可以根據需求調整,而調整方法就像使用美顏 App 一樣簡單。

比如想要變大雙眼,直接滑動下面的滾動按鈕即可。

從青年直接跨到老年,頭髮、神情、皺紋,呈現相當自然,還應景地配了副眼鏡。

情緒變化也毫無違和感。

如果一張假人照不足為奇,那麼一個名為 Rosebud.ai 的網站還能讓他們「動」起來。

從說話的嘴型、五官的輕微移動,確實很難分辨真假。

從網站介紹來看,任何帶有面孔的照片都可以變成影像,其中說話的文本可自定義,也可由系統自動提供,同時,說話者的聲音有多種選擇模式。

那麼,如此逼真的深度造假網站,是不是已經被封殺?

然而並沒有,這是一家公司網站,網站上還掛出了他們的客戶 LOGO──萊雅(L’OREAL)、電商平台(shopify)、YC 中國(Y-Combinator)等大牌企業。

Rosebud.ai:為藝術創作而生

想必很多 AI 開發者或愛好者,對上述「假人」的生成效果並不感到意外。

自從 2014 年 GAN(生成式對抗網路)首次被提出以來,基於人臉的圖像合成效果便得到了驚人的發展,尤其是其升級版 StylGAN2 推出後,在人臉處理方面,已經能夠支援換臉、換頭、修改五官,甚至生成不存在的新人臉。

而且這項技術已經支援圖像、影像、語音多種形式。據 Rosebud.ai 官網介紹,其「假人」製造正是基於 GAN 技術,而其音頻的處理上利用的是自然語言模型 GPT-3.

GPT-3 具有超強的文本生成能力,內含 1,750 億參數量,是有史以來最大的 NLP 模型,也是 OpenAI 耗資四百多萬美元打造的模型。從 6 月開通 API 服務後,被網友們挖掘出了 50 多種新玩法,如寫詩作詞、畫圖做 PPT、生成代碼等,效果十分驚人。

基於這兩項超強 AI 技術,Rosebud.ai 可以達到的效果不難想像。而為何提供這樣一種「假人」服務,該網站也給出明確說明:

Rosebud ai 是一款生成文本、圖像、影片和語音的工具,它對於生成性媒體完成故事創作非常重要。比如,小說故事中的人物形象總是很豐富多彩,我們可以透過 AI 技術呈現與之最相符合人物容貌;同時,GPT3 能夠進一步透過人物特點合成具有親和力和情感豐富的獨白,建立人物形象,豐富故事內容方式也發揮了非常重要的作用。

也就是說,這項技術原意是被用來輔助藝術創作。事實上,無論是 GPT-3 還是 GAN 技術,都是以科技向善為初衷研發的,比如 GAN 在人臉融合方面的驚人效果,可以被廣泛應用於娛樂、電影製作等行業。

但有人曾說過,「技術本沒有錯,錯的是利用技術的人」,GAN 技術被不少不良分子用來創造大量 Deepfake 影像,或是色情內容、偽造政客言論。

Rosebud ai 等工具也一樣。

被間諜利用,用於身分造假

Rosebud ai 主要被人用來身分造假。相關案例也不在少數,其中最大的一起案例要屬 2019 年某間諜利用假面孔混入華盛頓政治領域事件。

當時一個名叫凱蒂‧瓊斯(Katie Jones)的紅髮女郎以網路專家的身分,與美國副國務卿助理、參議員助手以及經濟學家保羅‧溫弗里(Paul Winfree)都建立了密切聯繫,溫弗里當時正在競選美聯儲的職位。

後來經調查發現,這位 30 歲的女性是由 AI 創建的「假人」,她在職業社群平台 Linkedin 上的個人資料和照片全部都是虛構。

美國國家反情報與安全中心主任威廉‧埃文納(William Evanina)曾表示,

「這是在專業社群網站上進行間諜活動的典型案例,很多外國間諜通常會使用虛假的社群媒體資料把自己包裝成美國知名專家,並進行大規模間諜活動,對他們而言,相比派間諜到某一個國家,不如坐在家裡的電腦前,向 30,000 個目標好友發送請求效果更高。」

不過,因及時發現,該事件並沒有產生更惡劣的影響。同樣是在 LinkedIn 平台,今年 7 月也發生了一起重大身分造假事件。

這位「假人」名為拉斐爾‧巴達尼(Raphael Badani),他將自己包裝成美國知名新聞平台 Newsmax 的內部人員,從事「政治風險顧問、國際關係高級分析師」相關工作。

利用這個身分他發表過有關「伊拉克如何伊朗的控制」、「杜拜為何如此動盪」等多篇文章。這些文章還被美國 Washington Examiner、RealClear Markets、American Thinker 以及 The National Interest 等多家媒體轉載。

但後來發現此人並不存在,其個人資料全部為偽造,文章也竊取自聖地牙哥創業公司創始人的部落格。

此外,與以上有政治意圖的造假案例相比,該技術可能被廣泛的應用於日常社群,雖然不會涉及違法犯罪,但它確實在構建一個虛假的世界。例如有網友稱:

不難想像,未來我們會經常看到此類分享照──與「假朋友」聚會、與「假狗」閒逛,抱著他們的「假嬰兒」。

仔細看,肉眼看也能辨識

當然,隨著造假資訊的氾濫,相關反辨識技術也在陸續推出。

目前的主流技術包括人臉 X 射線( Face X-ray)檢測、背景差異檢測(Background Difference)、情緒辨識網路(Emotion Recognition Network)檢測,以及生物學信號(Biological Signals)檢測,最高辨識率可達到 99% 以上。

此外,目前的人臉造假,無論是影像還是圖像方面,還遠未達到毫無差錯的地步。

如果用肉眼觀察,也能夠發現一些痕跡。比如透過一些首飾。

▲ 圖中的耳環看起來很相似,但細心一點可以發現有明顯區別。

另外眼鏡也是一個常用的衡量配飾,GAN 創建的眼睛,框架兩端經常會不對稱,或有輕微變形。在對稱方面,GAN 在耳朵、眼睛的生成上也會有不一致出現。

最後,最明顯的痕跡就是偽影和背景。

偽影就是在原圖像上出現了並不存在的各種形態的混色影像,這一點最容易辨識。偽影也是衡量合成圖像品質的關鍵指標。此外,目標人臉之外的背景也是重點,如變形的樹木、錯位的草坪等。

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)

延伸閱讀: