成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

新聞
我們嘗試用最簡潔易懂的方式介紹NeRV,除了最關(guān)鍵重要的推導(dǎo),盡量少做數(shù)學(xué)推理,讓你一文看懂。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

2D變3D,還不用建模,今年谷歌用NeRF做到了以假亂真的程度:

[[360440]]

感覺就像是視頻里截出來的是不是?神經(jīng)網(wǎng)絡(luò)只需要幾張靜態(tài)照片就能生成這樣的結(jié)果。

但,總感覺離真實的場景還差點什么?

沒錯,缺的就是光影變換效果,NeRF只高度還原了空間,沒有給人時間上的直觀感受

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

上面的結(jié)果,同樣是用幾張2D照片作為輸入,但有實時光影效果的生成結(jié)果,更加逼真生動,讓人有些“斗轉(zhuǎn)星移”的錯覺。

這項讓2D照片變“4D”的研究,是谷歌團隊聯(lián)合MIT、UC伯克利對之前的NeRF做出的重要改進(jìn),稱為NeRV,即用于照明渲染和視圖合成的神經(jīng)反射場和可見光場

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

下面我們嘗試用最簡潔易懂的方式介紹NeRV,除了最關(guān)鍵重要的推導(dǎo),盡量少做數(shù)學(xué)推理,讓你一文看懂。

谷歌“升維”打擊

光影變幻給了我們對于場景直觀的時間感受,而研究團隊實現(xiàn)這個效果的方法,就是在原先的NeRF上,添加了光模擬過程

在NeRF中,沒有將場景建模為吸收和發(fā)射光的連續(xù)的3D粒子場,而是將場景表示為吸收和反射外部光源定向粒子3D場。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

這樣的模型模擬光傳輸是低效的,并且無法擴展到全局照明的場景。

研究人員引入神經(jīng)能見度場參數(shù)來彌補這一點,它允許有效查詢模擬光傳輸所需的光線和像素點之間的能見度。

具體來說,NeRV網(wǎng)絡(luò)還原4D效果有3步,分別對應(yīng)著3D場景生成光影效果模擬渲染

神經(jīng)反射場

NeRF并沒有將入射光線的效果與表面的材料屬性分開。

這意味著NeRF只能在輸入圖像中呈現(xiàn)的固定光照條件下呈現(xiàn)場景的視圖。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

修改NeRF以實現(xiàn)動態(tài)光照是很直接的:將場景表示為反射入射光的粒子場。

給定一個任意的光照條件,就可以用一個標(biāo)準(zhǔn)的體積渲染積分來模擬光在粒子反射時在場景中的傳輸:

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

其中,方程(1)中的視圖相關(guān)發(fā)射項Le(x, ωo)被替換為物體表面S上,光射入方向的積分,即來自任何方向的進(jìn)光輻射度Li和反射函數(shù) R的乘積,它描述了從某一個方向ωi入射的光有多少被反射到方向ωo。

神經(jīng)可視場的光傳輸

雖然修改NeRF實現(xiàn)一定程度的光照效果是很直接的,但對于像NeRF這樣的連續(xù)體積表示法,一般照明場景的體積渲染積分,在計算上是有難度的。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

上圖直觀地展示了模擬光照場景的縮放特性,這使得模擬體積光傳輸特別困難。

即使只考慮從光源到場景點的直接照明,對于超過單點光源的情況下,暴力計算的方案也很吃力,因為它需要沿著從每個場景點到每個光源的路徑,反復(fù)查詢形狀MLP的體積密度。

暴力采樣渲染一束間接照明下的單條光線將需要一個petaflop的計算量,而訓(xùn)練過程中渲染大約十億條光線。

所以團隊通過用學(xué)習(xí)的近似值替換幾個體積密度積分來改善這個問題:引入一個 “能見度 “多層神經(jīng)網(wǎng)絡(luò),它可以對任意輸入方向的照明能見度給出近似值,以及相應(yīng)光線的預(yù)期終止深度的近似值。

這種方法,大大降低將直接照明和間接照明的計算復(fù)雜度,使得在優(yōu)化連續(xù)照明場景表示的訓(xùn)練循環(huán)中,可以同時模擬直接照明和其反彈的間接照明。

渲染

假設(shè)現(xiàn)在有一條通過NeRV的相機射線x(t)=c tωo,使用以下過程來渲染:

1) 沿射線繪制256個分層樣本,并查詢每個點的體積密度、表面法線和BRDF(雙向反射分布函數(shù))參數(shù)的形狀和反射神經(jīng)網(wǎng)絡(luò)。

2)沿射線對每個點進(jìn)行直接照明的遮擋。

3) 用間接照明對射線沿線的每個點進(jìn)行遮擋。

4) 沿著攝影機光線的每個點的總反射輻射度 Lr(x(t), ωo)是步驟 2 和步驟 3 的數(shù)量之和。將這些沿射線復(fù)合起來,用同樣的正交規(guī)則計算像素顏色。

通俗的說,就是對一條入射光線在整個場景所有像素點上的反射情況分別計算,然后整合起來。

測試結(jié)果

在最后的測試結(jié)果上,NeRV的表現(xiàn)遠(yuǎn)遠(yuǎn)超過了NeRF和NLT:

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

團隊分別在不同的數(shù)據(jù)集上訓(xùn)練模型,然后對雕像、推土機、熱狗三個圖像進(jìn)行還原。

谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”

從結(jié)果中可以看出,峰值信噪比(PSNR)、MS-SSIM(多尺度結(jié)構(gòu)比)損失函數(shù)這兩個指標(biāo),普遍優(yōu)于之前的方法。

對于個人視頻制作者、游戲開發(fā)人員,以及缺乏3D建模經(jīng)驗的動畫公司來說,這類技術(shù)的成熟,可謂“福音”。

通過AI技術(shù),讓3D效果的實現(xiàn)進(jìn)一步簡化,這也是Facebook、Adobe及微軟等公司紛紛投入這方面研究的原因所在。

最后,研究人員透露,這個算法即將開源,直接把項目主頁給你,先馬后看:

https://people.eecs.berkeley.edu/~pratul/nerv/

這是最近最酷的3D圖片方面的突破了。

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-04-10 12:30:16

3D圖片代碼

2013-01-30 16:15:40

adobeHTML5css3

2020-08-26 10:37:21

阿里3D

2024-12-16 14:40:00

AI模型訓(xùn)練

2020-03-06 10:34:40

AI 數(shù)據(jù)人工智能

2019-09-16 17:46:34

AI 數(shù)據(jù)人工智能

2023-11-27 09:49:37

自動駕駛數(shù)據(jù)

2011-04-25 14:36:24

Ubuntu Unit

2023-05-03 09:01:41

CanvasWebGL

2024-01-03 10:05:07

自動駕駛4D雷達(dá)

2024-10-17 10:28:23

2011-08-11 18:07:55

iPhoneQuratz 2D

2024-10-28 13:30:00

2024-01-19 16:35:00

模型動畫

2012-12-24 09:11:58

iOSUnity3D

2022-05-23 10:26:10

人工智能機器學(xué)習(xí)機器視覺

2020-10-26 13:40:00

CascadingSt

2012-05-07 14:13:59

HTML5
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 成人av片在线观看 | 国产高潮av| 国产日韩欧美在线 | 7777在线视频 | 韩国毛片一区二区三区 | 国产精品视频在线播放 | 亚洲国产精品一区二区第一页 | 国产精品成人一区二区三区 | 国久久 | 成人在线小视频 | 免费三级网 | 久在线| 性色在线 | aa级毛片毛片免费观看久 | 操操操操操 | 四季久久免费一区二区三区四区 | 最新中文字幕在线 | 久久在线 | 中文字幕视频网 | 国产一级大片 | 蜜臀久久99精品久久久久久宅男 | 天天碰日日操 | 欧美二区乱c黑人 | 成人视屏在线观看 | 激情国产视频 | 国产精品高潮呻吟久久久久 | 91佛爷在线观看 | 久久精彩视频 | 精品1区2区 | 亚洲精品1 | 亚洲成人av在线播放 | 亚洲精品久久久久久国产精华液 | 国产精品一区二区三区四区 | 久久久夜| 国产精品一区二区在线播放 | 91精品国产91久久久久久吃药 | 精国产品一区二区三区四季综 | 性一爱一乱一交一视频 | 久久99这里只有精品 | 91综合网| 日韩国产一区二区三区 |