成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減

新聞 深度學習
加州大學伯克利分校、谷歌、加州大學圣地亞哥分校的研究者提出了一種名為「NeRF」的 2D 圖像轉 3D 模型,可以利用少數幾張靜態圖像生成多視角的逼真 3D 圖像。

  2020 年,加州大學伯克利分校、谷歌、加州大學圣地亞哥分校的研究者提出了一種名為「NeRF」的 2D 圖像轉 3D 模型,可以利用少數幾張靜態圖像生成多視角的逼真 3D 圖像。其改進版模型 NeRF-W (NeRF in the Wild)還可以適應充滿光線變化以及遮擋的戶外環境,分分鐘生成 3D 旅游觀光大片。

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減

NeRF 模型 demo。

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減

NeRF-W 模型 demo。

然而,這些驚艷的效果是非常消耗算力的:每幀圖要渲染 30 秒,模型用單個 GPU 要訓練一天。因此,后續的多篇論文都在算力成本方面進行了改進,尤其是渲染方面。但是,模型的訓練成本并沒有顯著降低,使用單個 GPU 訓練仍然需要花費數小時,這成為限制其落地的一大瓶頸。

在一篇新論文中,來自加州大學伯克利分校的研究者瞄準了這一問題,提出了一種名為 Plenoxels 的新方法。這項新研究表明,即使沒有神經網絡,從頭訓練一個輻射場(radiance field)也能達到 NeRF 的生成質量,而且優化速度提升了兩個數量級。

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減
  • 論文鏈接:https://arxiv.org/pdf/2112.05131.pdf
  • 項目主頁:https://alexyu.net/plenoxels/
  • 代碼鏈接:https://github.com/sxyu/svox2

他們提供了一個定制的 CUDA 實現,利用模型的簡單性來達到可觀的加速。在有界場景中,Plenoxels 在單個 Titan RTX GPU 上的典型優化時間是 11 分鐘,NeRF 大約是一天,前者實現了 100 多倍的加速;在無界場景中,Plenoxels 的優化時間大約為 27 分鐘,NeRF++ 大約是四天,前者實現了 200 多倍的加速。雖然 Plenoxels 的實現沒有針對快速渲染進行優化,但它能以 15 幀 / 秒的交互速率渲染新視點。如果想要更快的渲染速度,優化后的 Plenoxel 模型可以被轉換為 PlenOctree(本文作者 Alex Yu 等在一篇 ICCV 2021 論文中提出的新方法:https://alexyu.net/plenoctrees/)。

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減
神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減

具體來說,研究者提出了一個顯式的體素表示方法,該方法基于一個不含任何神經網絡的 view-dependent 稀疏體素網格。新模型可以渲染逼真的新視點,并利用訓練視圖上的可微渲染損失和 variation regularizer 對校準的 2D 照片進行端到端優化。

他們把該模型稱為 Plenoxel(plenoptic volume elements),因為它由稀疏體素網格組成,每個體素網格存儲不透明度和球諧系數信息。這些系數被 interpolated,以在空間中連續建模完整的全光函數。為了在單個 GPU 上實現高分辨率,研究者修剪了空體素,并遵循從粗到細的優化策略。雖然核心模型是一個有界體素網格,但他們可以通過兩種方法來建模無界場景:1)使用標準化設備坐標(用于 forward-facing 場景);用多球體圖像圍繞網格來編碼背景(用于 360° 場景)。

Plenoxel 在 forward-facing 場景中的效果。

Plenoxel 在 360° 場景中的效果。

該方法表明,我們可以使用標準工具從反問題中進行逼真體素重建,包括數據表示、forward 模型、正則化函數和優化器。這些組件中的每一個都可以非常簡單,并且仍然可以實現 SOTA 結果。實驗結果表明,神經輻射場的關鍵要素不是神經網絡,而是可微分的體素渲染器。

框架概覽

Plenoxel 是一個稀疏體素網格,其中每個被占用的體素角存儲一個標量不透明度σ和每個顏色通道的球諧系數向量。作者將這種表征稱為 Plenoxel。任意位置和觀察方向上的不透明度和顏色是通過對存儲在相鄰體素上的值進行三線性插值并在適當的觀察方向上評估球諧系數來確定的。給定一組校準過的圖像,直接使用 training ray 上的渲染損失來優化模型。模型的架構如下圖 2 所示。

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減

上圖 2 是稀疏 Plenoxel 模型框架的概念圖。給定一組物體或場景的圖像,研究者在每個體素處用密度和球諧系數重建一個:(a)稀疏體素(Plenoxel)網格。為了渲染光線,他們(b)通過鄰近體素系數的三線性插值計算每個樣本點的顏色和不透明度。他們還使用(c)可微體素渲染來整合這些樣本的顏色和不透明度。然后可以(d)使用相對于訓練圖像的標準 MSE 重建損失以及總 variation regularizer 來優化體素系數。

實驗結果

研究者在合成的有界場景、真實的無界 forward-facing 場景以及真實的無界 360° 場景中展示了模型效果。他們將新模型的優化時間與之前的所有方法(包括實時渲染)進行了對比,發現新模型速度顯著提升。定量比較結果見表 2,視覺比較結果如圖 6、圖 7、圖 8 所示。

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減
神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減
神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減
神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減

另外,新方法即使在優化的第一個 epoch 之后,也能獲得高質量結果,用時不到 1.5 分鐘,如圖 5 所示。

神經輻射場去掉「神經」,訓練速度提升100多倍,3D效果質量不減
 
 

 

 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2022-02-25 23:46:16

神經網絡機器學習AI

2023-08-21 10:57:17

3D模型

2022-09-25 21:09:10

3D編程

2019-09-26 14:16:21

開源技術 趨勢

2022-09-29 16:11:54

3D訓練

2021-03-18 15:29:10

人工智能機器學習技術

2024-05-15 17:35:52

AI算法

2023-12-10 15:17:59

開源模型3D

2010-06-09 16:21:10

OpenSUSE界面

2023-12-05 13:48:00

數據訓練

2024-05-09 09:34:53

雷達數據

2021-09-16 07:52:18

SwiftUScroll效果

2010-01-04 15:17:52

Ubuntu啟動

2022-01-25 10:04:24

圖像模型AI

2022-09-17 09:05:28

3D可視化工具

2021-11-08 06:02:17

CSS 技巧代碼重構

2023-05-26 07:08:05

CSS模糊實現文字

2009-04-03 08:33:59

Symbian諾基亞Photo Brows

2010-06-09 10:13:40

OpenSUSE 3D

2025-01-07 13:19:48

模型AI訓練
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人乱人乱一区二区三区软件 | 久久国产亚洲 | 久久久久久久久久久国产 | 久久99视频 | 亚洲一区精品视频 | 欧美极品在线播放 | 免费一级毛片 | 国产一区二区三区久久久久久久久 | 欧美日韩在线国产 | 97日韩精品 | 精品国产欧美一区二区 | 在线婷婷| 久久一起草| 亚洲午夜网 | 欧美精品v | 日本污视频 | 欧美精品福利视频 | 久久久国产一区 | 一本一道久久a久久精品综合蜜臀 | 日韩中文在线 | 2020亚洲天堂| 国产一区二区免费电影 | 欧美日韩中文字幕在线 | 久久精品国产一区二区电影 | 中日韩毛片 | 黑人精品xxx一区一二区 | 国产区视频在线观看 | 九九热精品视频 | 久久激情网 | 日韩高清在线 | 91av视频在线播放 | 久久免费国产视频 | 99久久婷婷国产综合精品电影 | 欧美一级欧美三级在线观看 | 999观看免费高清www | 欧美在线网站 | a在线观看 | 激情av免费看 | 最新日韩在线 | 久久久久久久久久性 | 成人久久久久 |