迪士尼用它來運算繪製雲層?光線輻射預測神經網路到底強在哪

作者 | 發布日期 2018 年 01 月 30 日 8:30 | 分類 AI 人工智慧 , 科技趣聞 follow us in feedly

本期介紹的論文是《Deep Scattering: Rendering Atmospheric Clouds with Radiance-Predicting Neural Networks》(深度散射:輻射預測神經網路成像繪製大氣雲)。這是一篇由迪士尼公司獨立發表的論文,教你訓練一個神經網路,透過模擬光線過程來繪製雲層。



這項技術的難點在於,必須運行一個叫做幾何體光線路徑追蹤的演算法。這是一種用來模擬光線輻射的技術。因為在很多光線散射過程當中,光輻射並不是直接被物體表面反射,而是穿透了物體(比如這裡的雲層)。所以,要想建立雲層物理外觀模型,關鍵是要準確地獲取雲層幾何體。

前提是,迪士尼必須模擬出可能出現的數百次散射過程(包括其中的百萬級光線路線)。但這個計算量太龐大了。在這篇論文裡,作者們提出了一個很好的混合方法:用神經網路快速學習、快速預測在散射過程中的光輻射,以節省一部分的計算量。另一部分仍然使用傳統演算法。

雲層成像過程中,訓練神經網路所用的數據包含了 75 個不同的雲層。其中一部分是電腦自動生成的,另外一部分則是由藝術家繪製的,可以讓神經網路學習到多種多樣的案例。最終效果驚人,圖片的成像時間被壓縮到了分秒級。要知道,如果用傳統方法來做這類渲染,即使放到計算能力超強的平台也非常耗時。

迪士尼也不需要再多等幾小時,來看調整之後結果是不是比之前的運算成果要好。因為散射的參數也可動態調整,非常短的時間內就可以完成了。

這項技術同樣支援不同的散射模型。所有的成像結果都需要和真實進行對比,可以看到它們大多數看起來和真實的沒什麼兩樣。

註 1:這篇文章的新意是對神經網路在新穎工程方面的應用,針對的是在傳統雲層成像當中 in-scattered radiance prediction 這個在實際使用當中的痛點。
註 2:這個神經網路的基本結構是在普通的多層感知機上使用 ReLU 做激活函數,其創新在於構造了一種特殊的layer 來模擬雲層當中光線散射的特性。
註 3:這種特殊的 layer 是一個二層結構,其中輸入層相當於雲層的幾何矩形圖形,然後第二層相當於內部光線散射的範圍,整個 layer 相當於模擬了一次光線在雲層內部的散射,工作機理有些類似 CNN 內部的 filter。

(本文由 雷鋒網 授權轉載;首圖來源:pixabay