成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

60秒直出3D內容,紋理逼真!Meta最新3D Gen模型實現60倍速生成

人工智能
Meta的GenAI團隊在最新研究中介紹了Meta 3D Gen模型:可以在不到1分鐘的時間內從文本直接端到端生成3D資產。

在圖像生成和視頻生成這兩個賽道上,大模型僅用了兩年多的時間就卷得如火如荼。

即使是效果堪比Sora的Gen-3、Luma等模型發布,也很難引起曾經的轟動反應。

你可能會疑惑,AI還能玩出新花樣嗎?

Meta放出的最新研究告訴你——能!

不管是圖像還是視頻,即使能做出3D效果,終究只是二維空間中的像素組成的。

Meta最近發布的3D Gen模型,則能實現1分鐘內的端到端生成,從文本直出高質量3D資產。

不僅紋理清晰、形態逼真自然,而且生成速度比其他替代方案加快了3-60倍。

目前,模型還沒有開放試用API以及相應的代碼,官方消息中也沒有透露下一步的發布時間。

圖片圖片

只能看到官方demo但沒法試用,已經讓很多網友心癢難耐了。

「把這些可愛的小東西3D打印出來該有多好。」

圖片圖片

但好在,Meta放出了技術報告,讓我們可以細致觀摩一下技術原理。

圖片圖片

論文地址:https://ai.meta.com/research/publications/meta-3d-gen/

Meta 3D Gen

在電影特效、AR/VR、視頻游戲等領域中,創作3D內容是最耗時,也是最具挑戰性的環節之一,需要很高的專業技能和陡峭的學習曲線。

這件事對人類困難,對AI來說也同樣困難。

相比于圖像、視頻等形式,生產級的3D內容有更多方面的嚴格要求,不僅包括生成速度、藝術質量、分辨率,還包括3D網格的結構和拓撲質量、UV圖結構以及紋理清晰度。

此外,3D生成還面臨數據方面的挑戰。

雖然有數十億張圖像和視頻可供學習,但其中適合訓練的3D內容量卻少了3~4個數量級。因此,模型只能學習這些非3D的視覺內容,并從二維的觀察中推斷出三維信息。

3D Gen模型則克服了這些困難,在領域內邁出了第一步。

模型最大的亮點在于支持基于物理的渲染(PBR,physically-based rendering),這對于在應用場景中實現3D資產的重新照明非常必要。

此外,經過專業藝術家的評估,3D Gen在生成同等質量,甚至更優內容的同時,縮短了生成時間,提升了指令跟隨性能。

生成出3D對象后,模型還支持對其紋理進行進一步的編輯和定制,20s內即可完成。

圖片圖片

方法

這種更加高效的優質生成,離不開模型pipeline的精心設計。

3D Gen的生成主要分為兩步,由兩個組件分別完成——文本到3D對象生成器AssetGen和文本到紋理生成器TextureGen。

  • 第一階段:3D資產生成。根據用戶提供的文本提示,使用3D AssetGen模型創建初始3D資產,即帶有紋理和PBR材質圖的3D網格,大約花費30s。
  • 第二階段:紋理生成。根據第一階段生成的3D資產和用戶文本提示,使用3D TextureGen模型生成更高質量的紋理和PBR圖,大約花費20s。

其中,第二階段的TextureGen也可以單獨拿出來使用。如果有一個之前生成的,或者藝術家自己創作的無紋理3D網格,提供描述外觀的文本提示后,模型也能在20s左右的時間中為它從頭生成紋理。

圖片圖片

AssetGen和TextureGen這兩個模型有效地結合了3D對象的三種高度互補的表示:視圖空間(物體圖像)、體積空間(3D形狀和外觀)以及UV空間(紋理)。

圖片圖片

AssetGen項目地址:https://assetgen.github.io/

給定文本描述,AssetGen首先利用一個多視角、多通道版本的圖像生成器生成多張圖像,隨后生成物體的一致視圖。

據此,AssetGen中的重建網絡在體積空間中提取出物體的初始版本,并進行網格提取,確立其3D形狀和初始紋理。

最后,TextureGen利用視圖空間和UV空間的生成結果,對紋理進行重生成,在保持指令忠實度的同時提升紋理質量。

圖片圖片

論文地址:https://ai.meta.com/research/publications/meta-3d-texturegen-fast-and-consistent-texture-generation-for-3d-objects/

上述的每一個階段都是建立在Meta強大的文生圖模型家族Emu之上,并使用了內部數據集進行微調,主要包括渲染過的合成3D數據。

單獨使用TextureGen模型可以為同一個物體生成不同的紋理表面單獨使用TextureGen模型可以為同一個物體生成不同的紋理表面

不同于許多SOTA方法,AssetGen和TextureGen都是前饋生成器,因此能實現快速、高效的部署。

將3D生成任務以這種方式劃分為兩個階段,并在同一個模型中集成對象的多個表示空間,這種pipeline的組合是Meta重要的創新。

實驗證明,不僅AssetGen和TextureGen兩個部件都能分別取得更好的效果,它們結合后形成的3D Gen也能以68%的勝率超過其他模型。

實驗

針對文本到3D資產生成的任務,論文將3D Gen與其他公開可用的常用方法進行了對比,并從用戶調研、定性實驗兩個方面進行了評估。

定性結果

從生產結果上直觀來看,3D Gen能夠應對不同范疇、不同類別物體的生成任務,而且指令跟隨的忠實度甚至好過很多文生圖模型。

比如讓吉娃娃穿蓬蓬裙、讓臘腸犬穿熱狗裝這樣人類都很難想象的場景,3D Gen也按照要求生成了合理的結果。

圖片圖片

生成結果的多樣性也非常驚艷。比如提示模型只生成Llama(羊駝),他就能給出下圖中的13種不同結果,風格、形狀、紋理各異,可以說想象力很豐富了。

圖片圖片

圖6、7、8則對比了3D Gen和其他模型對同一文本提示的生成結果。

對于一些比較有挑戰性的提示,3D Gen的細節效果有時遜色于Meshy v3等模型,但這涉及到一個權衡問題:要展現紋理中的高頻細節,代價就是有時會出現視覺失真。

圖片圖片

下面這個多物體的復雜場景任務中,你覺得哪個模型的表現更好?

圖片圖片

雖然成功的案例很多,但對目前的模型來說,翻車依舊時常發生,而且每個模型都有自己獨特的翻法。

比如CSM Cube經常在物體幾何上出問題,前后視角不一致,或者干脆生成了「雙頭大猩猩」;Tripo 3D的光照效果會出現「一眼假」;Rodin Gen 1和Meshy 3.0有時缺少物體細節的渲染。

至于Meta的3D Gen,在放出來的案例中就出現了物體幾何結構不完整、紋理接縫、指令不跟隨(最右側的海象沒有叼煙斗)等多方面的問題。

圖片圖片

雖然沒人能在Meta的報告中戰勝Meta,但被拿來當「靶子」的作者,還是站出來為自己工作辯護了一番。

圖片圖片

圖片圖片

用戶調研

對于模型的文本到3D生成,人類評審將從兩方面進行評估:提示忠實度、視覺質量。

按不同的背景,評審被分成了兩組:(1)普通用戶,沒有3D方面的專業知識,(2)專業的3D藝術家、設計師和游戲開發者。

評估采用了DreamFusion引入的404個經過去重的文本提示,并根據內容復雜性分為三類:物體(156個),角色(106個)和物體角色組合(141個)。

每個3D生成結果都會以360度全景視頻的方式呈現給評審者,不同模型進行分別測試或者隨機的A/B測試。

表2展示了提示忠實度方面的的評估結果。在這一指標上,3DGen在兩個階段的得分都優于其他行業方法,緊隨其后的是T23D生成器。

圖片圖片

如表3所示,A/B測試中還添加了對幾何視覺質量以及紋理細節的評測。

作者發現,普通用戶更傾向于喜歡那些紋理更銳利、生動、逼真且細節詳實的3D結果,但對較明顯的紋理和幾何偽影不是很關注。專業的3D藝術家則會更重視幾何與紋理的準確性。

圖片圖片

在圖3中,作者分析了視覺質量、幾何、紋理細節和紋理偽影的表現率等指標,如何隨著文本提示描述的場景復雜度發生變化。

圖表顯示,雖然基準模型在簡單提示下的表現與3D Gen相當,甚至更優,但隨著提示復雜度逐漸增加,3D Gen開始反超,這也與圖7描述的定型結果一致。

圖片圖片

結論

作為一個統一的流程,3DGen整合了Meta的基礎生成模型,用于文本到3D生成,具備紋理編輯和材料生成能力。

通過結合AssetGen和TextureGen的優勢,3DGen能夠在不到一分鐘的時間內根據文本提示生成高質量的3D對象。

在專業3D藝術家的評估中,3DGen的輸出在大多數情況下更受青睞,尤其是在復雜提示下,而且速度快3到60倍。

雖然Meta目前對AssetGen和TextureGen的整合比較直接,但它開創了一個非常有前景的研究方向,基于兩個方面:(1)在視圖空間和UV空間中的生成,(2)紋理和形狀生成的端到端迭代。

如同Sora的出現會深刻影響短視頻、電影、流媒體等眾多行業一樣,3D Gen也具有同樣巨大的潛力。

畢竟,小扎還是心心念念他的元宇宙。而AI驅動的3D生成,對于在元宇宙中構建無限大的虛擬世界也非常重要。

參考資料:https://ai.meta.com/research/publications/meta-3d-gen/?utm_source=threads&utm_medium=organic_social&utm_cnotallow=carousel&utm_campaign=research


責任編輯:武曉燕 來源: 新智元
相關推薦

2024-07-04 09:26:16

2025-04-07 08:35:00

3DAI生成

2020-08-26 10:37:21

阿里3D

2023-07-14 09:41:01

3DAI

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT

2011-05-07 09:45:36

晶體管3D22納米

2024-07-16 12:02:11

2011-10-06 13:30:45

宏碁投影儀

2012-11-26 12:51:44

木材3D打

2025-01-10 14:00:00

3D模型生成

2024-03-20 15:51:00

AI數據

2012-06-16 16:57:52

WebGL

2021-03-18 15:29:10

人工智能機器學習技術

2012-02-27 10:00:50

HTML 5

2024-05-16 09:24:17

3D技術

2011-05-26 10:55:39

2017-09-19 14:05:24

web

2023-08-28 00:53:03

AI3D

2011-05-26 10:05:07

優派投影機

2025-01-13 10:00:00

模型生成3D
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 天天综合网永久 | 激情91 | 精品一二三区 | 中文字幕免费中文 | av一级| 免费视频一区二区 | 日本成人在线观看网站 | 亚洲图片视频一区 | 视频二区 | 亚洲欧美国产精品久久 | 男人的天堂久久 | 一区二区三区四区不卡视频 | 欧美一级片a | 国产成人99久久亚洲综合精品 | 午夜精品久久久久久久久久久久 | 丁香五月网久久综合 | 国产成人在线视频 | 精品久久久久久久久久久久久久 | 国产精品成人一区二区三区吃奶 | av一级| 欧美精品网站 | 青青久久| 日本在线免费看最新的电影 | 日日草天天干 | 欧美在线视频一区二区 | 在线国产视频 | 男女羞羞视频在线 | 国产一区二区三区日韩 | 久久成人一区二区三区 | 天天看逼 | 嫩草黄色影院 | 五月婷亚洲 | 中文字幕在线视频精品 | 成人亚洲一区 | 一区二区三区国产好 | 国产精品欧美一区二区三区不卡 | 这里精品 | 亚洲欧美视频 | 欧美一级黄色片免费观看 | 啪啪精品 | 成人午夜毛片 |