一張 AI 的「自畫像」

作者 | 發布日期 2018 年 10 月 23 日 8:15 | 分類 AI 人工智慧 , 科技趣聞 line share follow us in feedly line share
一張 AI 的「自畫像」


AI 應該長什麼樣子?常見的答案不外乎:像機器人,像一組閃爍的 LED 燈,或像一組變幻莫測的波形。那麼在 AI 眼中,AI 應該長什麼樣子?

直接方法大概是讓 AI 畫一張自畫像。比如這張。

這張圖是 IBM 研究人員安排 AI 畫的自畫像,發表在 10 19 日的《紐約時報》。

《紐約時報》月下旬找上 IBM 研究院,希望他們幫忙想想如何用特殊方式讓 AI 生出一幅藝術作品,以便用在 10 月的 AI 特輯。時間不多,也無法決定最後的效果,故決定讓 AI 創作原創作品。而工作目標是高層次抽象──要展現 AI 的重要概念,創作一幅能展示這個概念的原創作品,且視覺風格還要與《紐約時報》相符。

「自畫像」這件事對 AI 來說有點耐人尋味。畢竟,AI 是看不見摸不著的資訊處理工具,它能分析路況轉化成駕駛指令(自駕車)、能把影像訊號變成位置和機率匯出(影像辨識)、能把數位化後的連續波形訊號轉換成離散的文字符號(語音辨識),但這些工作都不需要 AI 創造任何新事物,它只是根據訓練過程學到的資料分析匯入、產生匯出而已。即便如今在影像和語義理解已有不小進步,也仍然很難想像如何讓 AI「思考自己看起來長什麼樣子」。

如今面對這幅作品,外行眼中有種老生常談的味道,因為看起來只不過是(AI 和人)手拉手動作的數位化塗鴉。但看過創作流程介紹之後,內行就會會心一笑──這還真是用深度學習時代的標準方法,把 AI 和人類的能力結合,讓 AI 畫了一幅自畫像呢。

第一步:在 AI 中找到某個核心的視覺概念

  • 找到發表在《紐約時報》約 3 千篇關於 AI 的文章。
  • 用自然語言處理工具分析文章,找到與 AI 有關、有區分度、有語義概念的前 30 項。
  • 訓練一個用於視覺辨識的神經網路,它會影像辨識這前 30 項概念。
  • 找到《紐約時報》所有直接說明或含有 AI 意義的圖片,用這個網路評分影像。
  • 評分前 10 名的影像,由參與項目的研究員、工程師、藝術家選出一張認為貼切的:一張人和機器人握手的畫面。

第二步:創作一幅捕捉到 AI 概念的原創影像

  • 構建一個超過 1 千張影像組成的資料集,影像內容是人手和機械手。
  • 用資料集訓練一個對抗性生成式網路(GAN),讓它繪製一幅包含人手和機械手的新影像;這個過程耗費 個日夜。

第三步:以符合《紐約時報》的視覺風格呈現

  • 收集一些《紐約時報》舊封面圖,訓練一個影像風格轉換網路。
  • 用這個網路對第二步繪製的人手和機械手影像自動風格轉換,以便符合《紐約時報》封面的「視覺語言」。
  • 根據總體概念清晰度和藝術風格,選出一張最終影像──就是上圖。

這是一個典型融合 AI 的計算能力和人類藝術創造、判斷能力的流程,且也可以生成其他領域的藝術作品。

正與影像展示、創作過程一樣,人類與 AI 的共同未來應當是攜手互助,不是此消彼長、互相對抗。

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)