向假照片宣戰,Adobe 發展假照片鑑識技術

作者 | 發布日期 2018 年 07 月 08 日 12:00 | 分類 AI 人工智慧 , 數位內容 , 軟體、系統 follow us in feedly

這個時代假新聞滿天飛,我們通常會說「沒圖沒真相」來當作區辨是否真實的原則,然而連照片、影片也是假的話,那該怎麼辦?尤其現在又有 AI 人工智慧技術,方便、全自動的修圖更是能製造出大量假照片、假影片。相應這個趨勢,知名影像處理軟體開發公司 Adobe 提出了抓出假照片的技術方案



▲ 知名假照片,伊朗政府在 2008 年發表。(Source:WIRED

Adobe 最近在 CVPR 計算機視覺會議上,展示了以機器學習自動辨識出影像是否經過變造的技術,並且一併發表論文。該研究論文並不代表該領域的突破,也還不是商業產品,但很有趣的是,Adobe 這個公司幾乎就是變造影像的代名詞,卻對這種工作有興趣。

該公司發言人表示,這個研究專案仍然在早期階段,但在未來,該公司希望在「開發有助於監控和驗證數位媒體真實性的技術」方面發揮貢獻。Adobe 過去從未發表過用於辨識假照片的軟體,這意味著什麼還不是很明確。不過呢,該公司指出已經幫助過執法單位,以數位鑑識技術尋找並且成功找到失蹤兒童,這似乎意謂著該公司對其影像處理技術負起負責的態度。

這份嶄新的研究論文展示了機器學習如何用於辨識出 3 種常見的影像處理型態:

  • 拼接(splicing):將不同圖片的兩部分組合在一起。
  • 複製與移動(copy-move):圖片內的區塊被複製和貼到別的部分去。
  • 刪除(revomal)

▲ 3 種常見的變造手法。(Source:論文截圖)

為了發掘圖片是否被篡改過,數位鑑識專家通常會在圖片的隱藏圖層尋找線索。當編輯圖片時,會留下數位人工產物,例如圖像感測器隨機產生的顏色和亮度變化(也稱為圖像噪訊)的不一致性。例如將兩個不同的圖像拼接在一起,或者將圖像一部分區塊複製起來貼到另一部分,其背景噪訊會不相容,就好像牆壁上略微不同顏色的污漬。

▲ Adobe 的訓練資料。(Source:論文截圖)

與許多其他機器學習系統一樣,Adobe 也使用含有大量變造過圖片的資料集來訓練人工智慧,從中發現變造圖片的常見模式。這套系統在某些測試中得分高於其他團隊製造的類似系統,但還沒達到遙遙領先的地步。然而,這項研究並未直接應用於以 Deepfake 產生的假影片(Deepfake 是以人工智慧移花接木產生假影片的軟體,之前許多人用來把女明星合成到色情影片演員身上 )。

▲ Adobe 的鑑識系統辨識出圖片被變造的地方。(Source:論文截圖)

數位鑑識專家 Hany Farid 表示:「這些新的機器學習方法的好處是有可能發現不明顯且以前未知的偽造影像;然而這些方法的缺點是,目前受限於餵給類神經網路的訓練資料,目前還不太可能學習到區辨出陰影、反射幾何形狀的不一致那樣更高級的偽造手法。」

儘管如此,畢竟是有人在進行更多研究幫助我們發掘假圖,正如許多專家提醒,我們正走向某種「後真相」(post-truth,註)的世界,連我們看到的影片、照片都不一定可信,我們真的需要新工具來幫助我們明辨真假,水能覆舟亦能載舟。人工智慧讓偽造相片更容易了,但也可望更能辨識出假照片。

註:關於「後真相」,牛津辭典對 post-truth 的解釋是「反應客觀事實對民意的影響力,比不上情緒及個人信念的情形」,後真相的世界也就是用假新聞、假照片、假影片來「帶風向」的世界。

(首圖來源:影片截圖)

延伸閱讀: