成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

NUS華人團隊最新模型,單視圖重建3D,又快又準

人工智能 新聞
計算機視覺迎來大突破!新加坡國立大學學者開發Anything-3D,單圖超快3D重建!

2D圖像的3D重建一直是CV領域的重頭戲。

層出不同的模型被開發出來試圖攻克這個難題。

今天,新加坡國立大學的學者共同發表了一篇論文,開發了一個全新的框架Anything-3D來解決這個老大難問題。

圖片

論文地址:https://arxiv.org/pdf/2304.10261.pdf

借助Meta「分割一切」模型,Anything-3D直接讓分割后的任意物體活起來了。

圖片

另外,再用上Zero-1-to-3模型,你就可以得到不同角度的柯基。

圖片

甚至,還可以進行人物3D重建。

圖片

圖片

可以說,這把真突破了。

Anything-3D!

在現實世界中,各種物體和各類環境既多樣又復雜。所以,在不受限制的情況下,從單一RGB圖像中進行三維重建面臨諸多困難。

在此,新加坡國立大學研究人員結合了一系列視覺語言模型和SAM(Segment-Anything)物體分割模型,生成了一個功能多、可靠性強的系統——Anything-3D。

目的就是在單視角的條件下,完成3D重建的任務。

他們采用BLIP模型生成紋理描述,用SAM模型提取圖像中的物體,然后利用文本→圖像的擴散模型Stable Diffusion將物體放置到Nerf(神經輻射場)中。

在后續的實驗中,Anything-3D展示出了其強大的三維重建的能力。不僅準確,適用面也非常廣泛。

Anything-3D在解決現有方法的局限這方面,效果明顯。研究人員通過對各類數據集的測驗和評估,展示了這種新框架的優點。

圖片

上圖中,我們可以看到,「柯基吐舌頭千里奔襲圖」、「銀翅女神像委身豪車圖」,以及「田野棕牛頭戴藍繩圖」。

這是一個初步展示,Anything-3D框架能夠熟練地把在任意的環境中拍攝的單視角圖像中恢復成的3D的形態,并生成紋理。

盡管相機視角和物體屬性有很大的變化,但這種新框架始終能提供準確性較高的結果。

要知道,從2D圖像中重建3D物體是計算機視覺領域課題的核心,對機器人、自動駕駛、增強現實、虛擬現實,以及三維打印等領域都有巨大影響。

雖說這幾年來取得了一些不錯的進展,但在非結構化環境中進行單圖像物體重建的任務仍然是一個具有很大吸引力且亟待解決的問題。

目前,研究人員的任務就是從一張單一的二維圖像中生成一個或多個物體的三維表示,表示方法包括點云、網格或體積表示。

然而,這個問題從根本上來說并不成立。

由于二維投影所產生的內在模糊性,不可能明確地確定一個物體的三維結構。

再加上形狀、大小、紋理和外觀的巨大差異,重建自然環境下的物體非常復雜。此外,現實世界圖像中的物體經常會被遮擋,這就會阻礙被遮擋部分的精準重建。

同時,光照和陰影等變量也會極大地影響物體的外觀,而角度和距離的不同也會導致二維投影的明顯變化。

困難說夠了,Anything-3D可以出場了。

論文中,研究人員詳細介紹了這個開創性的系統框架,將視覺語言模型和物體分割模型融合在一起,輕輕松松就能把2D物體搞成3D的。

這樣,一個功能強大、自適應能力強的系統就成了。單視圖重建?Easy.

研究人員表示,將這兩種模型結合,就可以檢索并確定出給定圖像的三維紋理和幾何形狀。

Anything-3D利用BLIP模型(Bootstrapping語言-圖像模型)預訓練對圖像的文本描述,然后再用SAM模型識別物體的分布區域。

接下來,利用分割出來的物體和文本描述來執行3D重建任務。

換句話說,該論文利用預先訓練好的2D文本→圖像擴散模型來進行圖像的3D合成。此外,研究人員用分數蒸餾來訓練一個專門用于圖像的Nerf.

圖片

上圖就是生成3D圖像的全過程。左上角是2D原圖,先經過SAM,分割出柯基,再經過BLIP,生成文本描述,然后再用分數蒸餾搞個Nerf出來。

通過對不同數據集的嚴格實驗,研究人員展示了這種方法的有效性和自適應性,同時,在準確性、穩健性和概括能力方面都超過了現有的方法。

研究人員還對自然環境中3D物體重建中已有的挑戰進行了全面深入地分析,探討了新框架如何解決此類問題。

最終,通過將基礎模型中的零距離視覺和語言理解能力相融合,新框架更能從真實世界的各類圖像中重建物體,生成精確、復雜、適用面廣的3D表示。

可以說,Anything-3D是3D物體重建領域的一個重大突破。

下面是更多的實例:

圖片

                炫酷黑內飾小白保時捷,亮麗橙色挖機吊車,綠帽小黃橡皮鴨

圖片

            時代眼淚褪色大炮、小豬豬可愛迷你存錢罐、朱砂紅四腿高腳凳

這個新框架可以交互式地識別單視角圖像中的區域,并用優化的文本嵌入來表示2D物體。最終,使用一個3D感知的分數蒸餾模型有效地生成高質量的3D物體。

總之,Anything-3D展示了從單視角圖像中重建自然3D物體的潛力。

研究者稱,新框架3D重建的質量還可以更完美,研究人員正在不斷努力提高生成的質量。

此外,研究人員表示,目前沒有提供3D數據集的定量評估,如新的視圖合成和誤差重建,但在未來的工作迭代中會納入這些內容。

同時,研究人員的最終目標是擴大這個框架,以適應更多的實際情況,包括稀疏視圖下的對象恢復。

作者介紹

Wang目前是新加坡國立大學(NUS)ECE系的終身制助理教授。

在加入新加坡國立大學之前,他曾是Stevens理工學院CS系的一名助理教授。在加入Stevens之前,我曾在伊利諾伊大學厄巴納-香檳分校Beckman研究所的Thomas Huang教授的圖像形成小組擔任博士后。

Wang在洛桑聯邦理工學院(EPFL)計算機視覺實驗室獲得博士學位,由Pascal Fua教授指導,并在2010年獲得香港理工大學計算機系的一等榮譽學士學位。

圖片

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-01-26 10:19:21

2024-05-06 12:24:00

模型訓練

2024-03-05 11:31:00

AI數據

2024-05-16 09:24:17

3D技術

2025-01-07 08:40:00

視頻生成AI

2024-01-18 12:37:31

SOTA3D方法

2024-03-20 15:51:00

AI數據

2022-09-13 15:19:48

3D網絡

2024-06-26 10:07:38

2025-04-22 09:26:00

2023-02-20 09:58:35

模型3D

2024-03-06 14:57:13

火山引擎

2024-12-31 07:15:00

2024-07-03 14:29:38

2024-09-20 16:20:00

2020-08-26 10:37:21

阿里3D

2025-06-24 08:40:00

3D模型訓練

2023-12-22 09:29:07

模型3D

2021-06-02 06:24:05

計算機視覺3D無人駕駛

2021-06-09 08:30:52

CSS33D旋轉視圖3D動畫
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 综合久久久| 成人欧美一区二区三区在线观看 | 欧美成人精品一区二区男人看 | 国产精品高清在线 | 久久精品国产一区二区电影 | 精品久久一 | 色视频网站在线观看 | 国产成人一区二区三区电影 | 精品欧美一区二区三区精品久久 | 久久久国产一区二区三区四区小说 | 日韩在线一区二区 | 成人av片在线观看 | 亚洲一在线 | 国产亚洲欧美在线视频 | 在线成人av | 久久99精品久久久97夜夜嗨 | 久久久激情 | 欧美精品片| 天天爱爱网 | 国产精品一区在线 | 日本久久网站 | 91精品国产色综合久久 | 久久久久久国产免费视网址 | 成人高潮片免费视频欧美 | 久久se精品一区精品二区 | 91精品国产综合久久久久久漫画 | 精品国产综合 | 亚洲综合成人网 | 午夜av一区二区 | 亚洲逼院 | 污污的网站在线观看 | 欧美成人视屏 | 日一区二区| 污书屋| 伊人网站视频 | 在线第一页 | 欧美一区二区三区视频 | 男女啪啪高潮无遮挡免费动态 | 欧美精品一区三区 | 91在线播 | www.久久影视 |