成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

沒有3D卷積的3D重建方法,A100上重建一幀僅需70ms

人工智能 新聞
來自 Niantic 和 UCL 等機構的研究者使用精心設計和訓練的 2D 網絡,實現了高質量的深度估計和 3D 重建。

從姿態圖像重建 3D 室內場景通常分為兩個階段:圖像深度估計,然后是深度合并(depth merging)和表面重建(surface reconstruction)。最近,多項研究提出了一系列直接在最終 3D 體積特征空間中執行重建的方法。雖然這些方法已經獲得出令人印象深刻的重建結果,但它們依賴于昂貴的 3D 卷積層,限制其在資源受限環境中的應用。

現在,來自 Niantic 和 UCL 等機構的研究者嘗試重新使用傳統方法,并專注于高質量的多視圖深度預測,最終使用簡單現成的深度融合方法實現了高精度的 3D 重建。

圖片

?

  • 論文地址:https://nianticlabs.github.io/simplerecon/resources/SimpleRecon.pdf
  • GitHub 地址:https://github.com/nianticlabs/simplerecon
  • 論文主頁:https://nianticlabs.github.io/simplerecon/

該研究利用強大的圖像先驗以及平面掃描特征量和幾何損失,精心設計了一個 2D CNN。所提方法 SimpleRecon 在深度估計方面取得了顯著領先的結果,并且允許在線實時低內存重建。

如下圖所示,SimpleRecon 的重建速度非常快,每幀僅用約 70ms。

圖片

SimpleRecon 和其他方法的比較結果如下:

圖片

圖片

方法

深度估計模型位于單目深度估計與平面掃描 MVS 的交點,研究者用 cost volume(代價體積)來增加深度預測編碼器 - 解碼器架構,如圖 2 所示。圖像編碼器從參考圖像和源圖像中提取匹配特征,以輸入到 cost volume。使用 2D 卷積編碼器 - 解碼器網絡來處理 cost volume 的輸出,此外研究者還使用單獨的預訓練圖像編碼器提取的圖像級特征進行增強。

圖片

該研究的關鍵是將現有的元數據與典型的深度圖像特征一起注入到 cost volume 中,以允許網絡訪問有用的信息,如幾何和相對相機姿態信息。圖 3 詳細地顯示了 feature volume 構造。通過整合這些之前未開發的信息,該研究的模型能夠在深度預測方面顯著優于之前的方法,而無需昂貴的 4D cost volume 成本、復雜的時間融合以及高斯過程。

圖片

該研究使用 PyTorch 來實現,并使用 EfficientNetV2 S 作為主干,其具有類似于 UNet++ 的解碼器,此外,他們還使用 ResNet18 的前 2 個塊進行匹配特征提取,優化器為 AdamW ,在兩塊 40GB A100 GPU 上耗時 36 小時完成。 

網絡架構設計

網絡是基于 2D 卷積編碼器 - 解碼器架構實現的。在構建這種網絡時,研究發現有一些重要的設計選擇可以顯著提高深度預測準確率,主要包括:

基線 cost volume 融合:雖然基于 RNN 的時間融合方法經常被使用,但它們顯著增加了系統的復雜性。相反,該研究使得 cost volume 融合盡可能簡單,并發現簡單地將參考視圖和每個源視圖之間的點積匹配成本相加,可以得到與 SOTA 深度估計相競爭的結果。

圖像編碼器和特征匹配編碼器:先前研究表明,圖像編碼器對深度估計非常重要,無論是在單目和多視圖估計中。例如 DeepVideoMVS 使用 MnasNet 作為圖像編碼器,其具有相對較低的延遲。該研究建議使用很小但更強大的 EfficientNetv2 S 編碼器,雖然這樣做的代價是增加了參數量,并降低了 10% 的執行速度,但它大大提高了深度估計的準確率。

融合多尺度圖像特征到 cost volume 編碼器:在基于 2D CNN 的深度立體和多視角立體中,圖像特征通常與單尺度上的 cost volume 輸出相結合。最近,DeepVideoMVS 提出在多尺度上拼接深度圖像特征,在所有分辨率上增加圖像編碼器和 cost volume 編碼器之間的跳躍連接。這對基于 LSTM 的融合網絡很有幫助,該研究發現這對他們的架構也同樣重要。

實驗

該研究在 3D 場景重建數據集 ScanNetv2 上訓練和評估了所提方法。下表 1 使用 Eigen 等人 (2014) 提出的指標來評估幾個網絡模型的深度預測性能。

圖片

令人驚訝的是,該研究所提模型不使用 3D 卷積,在深度預測指標上卻優于所有基線模型。此外,不使用元數據編碼的基線模型也比以前的方法表現更好,這表明精心設計和訓練的 2D 網絡足以進行高質量的深度估計。下圖 4 和圖 5 顯示了深度和法線的定性結果。

圖片

圖片

?該研究使用 TransformerFusion 建立的標準協議進行 3D 重建評估,結果如下表 2 所示。

圖片

對于在線和交互式 3D 重建應用,減少傳感器延遲是至關重要的。下表 3 展示了給定一個新的 RGB 幀,各個模型對每幀的集成計算時間。

圖片

為了驗證該研究所提方法中各個組件的有效性,研究者進行了消融實驗,結果如下表 4 所示。

圖片

感興趣的讀者可以閱讀論文原文,了解更多研究細節。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-05-16 09:24:17

3D技術

2025-01-26 10:19:21

2024-06-26 10:07:38

2021-06-02 06:24:05

計算機視覺3D無人駕駛

2023-04-24 16:25:47

3D開發

2022-09-26 15:18:15

3D智能

2024-03-06 14:57:13

火山引擎

2012-11-26 12:51:44

木材3D打

2011-10-06 13:30:45

宏碁投影儀

2025-03-31 08:52:00

AI模型研究

2011-05-26 10:05:07

優派投影機

2025-05-07 10:09:49

3D模型生成

2025-03-06 00:15:00

3D場景數據

2011-05-26 10:08:14

2011-05-26 10:55:39

2011-05-25 16:07:17

2024-01-22 10:02:38

引擎架構

2024-12-10 15:17:11

2015-09-09 11:05:52

3d視差引導頁

2021-12-28 10:52:10

鴻蒙HarmonyOS應用
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 天天搞天天操 | 欧美 日韩 国产 成人 | 美女福利视频网站 | 国产激情免费视频 | 91视频入口 | 青青草精品 | 日日操操 | 区一区二区三在线观看 | 一区二区三区日韩 | 久久久精| 欧美 日韩 亚洲91麻豆精品 | 国产综合精品 | 亚洲伊人久久综合 | 综合国产在线 | 国产精品一区二区福利视频 | 日韩精品在线一区 | 日韩在线观看一区二区三区 | 天天操天天干天天爽 | 国产观看 | 一道本在线 | 毛片国产| 国产高清一区二区三区 | 国产精品一区一区三区 | 国产精品一区久久久久 | 国产精品色哟哟网站 | 日韩理论电影在线观看 | 国产色网| 亚洲高清一区二区三区 | 99在线国产 | 亚洲高清一区二区三区 | a爱视频| 日韩成人在线网站 | 综合色播| 国产精品一级 | 精品久久香蕉国产线看观看亚洲 | 国产精品一区视频 | 在线免费观看成年人视频 | 欧美一级片a | 久久久久国产 | 天堂色综合 | 久久久久国产一区二区三区 |