成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

上科大等發布DreamFace:只需文本即可生成「超寫實3D數字人」

人工智能 新聞
AIGC進入3D時代,用文字就能生成超逼真數字人!

隨著大型語言模型(LLM)、擴散(Diffusion)等技術的發展,ChatGPT、Midjourney等產品的誕生掀起了新一波的AI熱潮,生成式AI也成為備受關注的話題。

與文本和圖像不同,3D生成仍處于技術探索階段。

2022年年底,Google、NVIDIA和微軟相繼推出了自己的3D生成工作,但大多基于先進的神經輻射場(NeRF)隱式表達,與工業界3D軟件如Unity、Unreal Engine和Maya等的渲染管線不兼容。

即使通過傳統方案將其轉換為Mesh表達的幾何和顏色貼圖,也會造成精度不足和視覺質量下降,不能直接應用于影視制作和游戲生產。

圖片

項目網站:https://sites.google.com/view/dreamface

論文地址:https://arxiv.org/abs/2304.03117

Web Demo:https://hyperhuman.top

HuggingFace Space:https://huggingface.co/spaces/DEEMOSTECH/ChatAvatar

為了解決這些問題,來自影眸科技與上海科技大學的研發團隊提出了一種文本指導的漸進式3D生成框架。

該框架引入符合CG制作標準的外部數據集(包含幾何和PBR材質),可以根據文本直接生成符合該標準的3D資產,是首個支持Production-Ready 3D資產生成的框架。

為了實現文本生成可驅動的3D超寫實數字人,該團隊將這個框架與產品級3D數字人數據集相結合。這項工作已經被計算機圖形領域國際頂級期刊Transactions on Graphics接收,并將在國際計算機圖形頂級會議SIGGRAPH 2023上展示。

DreamFace主要包括三個模塊,幾何體生成,基于物理的材質擴散和動畫能力生成。

相比先前的3D生成工作,這項工作的主要貢獻包括:

· 提出了DreamFace這一新穎的生成方案,將最近的視覺-語言模型與可動畫和物理材質的面部資產相結合,通過漸進式學習來分離幾何、外觀和動畫能力。

· 引入了雙通道外觀生成的設計,將一種新穎的材質擴散模型與預訓練模型相結合,同時在潛在空間和圖像空間進行兩階段優化。

· 使用BlendShapes或生成的Personalized BlendShapes的面部資產具備動畫能力,并進一步展示了DreamFace在自然人物設計方面的應用。

幾何生成

幾何體生成模塊可以根據文本提示生成與之一致的幾何模型。然而,在人臉生成方面,這可能難以監督和收斂。

因此,DreamFace提出了一個基于CLIP(Contrastive Language-Image Pre-Training)的選擇框架,首先從對人臉幾何參數空間內隨機采樣的候選項中選擇最佳的粗略幾何模型,然后雕刻幾何細節,使頭部模型更符合文本提示。

圖片

根據輸入提示,DreamFace利用CLIP模型選擇匹配得分最高的粗略幾何候選項。接下來,DreamFace使用隱式擴散模型(LDM)在隨機視角和光照條件下對渲染圖像進行得分蒸餾采樣(SDS)處理。

這使得DreamFace可以通過頂點位移和詳細的法線貼圖向粗略幾何模型添加面部細節,從而得到高度精細的幾何體。

與頭部模型類似,DreamFace還基于該框架進行發型和顏色的選擇。

基于物理的材質擴散生成

基于物理的材質擴散模塊旨在預測與預測幾何體和文本提示一致的面部紋理。

首先,DreamFace將預先訓練的LDM在收集的大規模UV材質數據集上微調,得到兩個LDM擴散模型。

圖片

DreamFace采用了一種聯合訓練方案,協調兩個擴散過程,一個用于直接去噪UV紋理貼圖,另一個用于監督渲染圖像,以確保面部UV貼圖和渲染圖像的正確形成與文本提示一致。

為了減少生成時間,DreamFace采用了一個粗糙紋理潛在擴散階段,為細節紋理生成提供先驗潛在。

圖片

為了確保所創建的紋理地圖不含有不良特征或照明情況,同時仍保持多樣性,設計了一種提示學習策略。

團隊利用兩種方法生成高質量的漫反射貼圖:

(1)Prompt Tuning。與手工制作的特定領域文本提示不同,DreamFace將兩個特定領域的連續文本提示 Cd 和 Cu 與相應的文本提示結合起來,這將在U-Net去噪器訓練期間進行優化,以避免不穩定和耗時的手工撰寫提示。

(2)非面部區域遮罩。LDM去噪過程將額外地受到非面部區域遮罩的限制,以確保生成的漫反射貼圖不含有任何不需要的元素。

圖片

作為最后一步,DreamFace應用超分辨率模塊生成4K基于物理的紋理,以進行高質量渲染。

圖片

DreamFace框架在名人生成,根據描述生成角色上都取得了相當不錯的效果,在User Study中獲得了遠超先前工作的成績。相比先前的工作,在運行時間上也具備明顯的優勢。

圖片

除此之外,DreamFace還支持使用提示和草圖進行紋理編輯。通過直接使用微調的紋理LDM和提示,可以實現全局的編輯效果,如老化和化妝。通過進一步結合掩模或草圖,可以創建各種效果,如紋身、胡須和胎記。

圖片

動畫能力生成

圖片

DreamFace生成的模型具備動畫能力。與基于BlendShapes的方法不同,DreamFace的神經面部動畫方法通過預測獨特的變形來為生成的靜息(Neutral)模型賦予動畫效果,從而產生個性化的動畫。

首先,訓練一個幾何生成器,學習表情的潛在空間,其中解碼器被擴展為以中性幾何形狀為條件。接著,進一步訓練表情編碼器,從RGB圖像中提取表情特征。因此,DreamFace能夠通過使用單目RGB圖像以中性幾何形狀為條件來生成個性化的動畫。

與使用通用BlendShapes進行表情控制的DECA相比,DreamFace的框架提供了細致的表情細節,并且能夠精細地捕捉表演。

結論

本文介紹了DreamFace,一種文本指導的漸進式3D生成框架,它結合了最新的視覺-語言模型、隱式擴散模型,以及基于物理的材質擴散技術。

DreamFace的主要創新包括幾何體生成、基于物理的材質擴散生成和動畫能力生成。與傳統的3D生成方法相比,DreamFace具有更高的準確性、更快的運行速度和較好的CG管線兼容性。

DreamFace的漸進式生成框架為解決復雜的3D生成任務提供了一種有效的解決方案,有望推動更多類似的研究和技術發展。

此外,基于物理的材質擴散生成和動畫能力生成將推動3D生成技術在影視制作、游戲開發和其他相關行業的應用。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-05-08 15:44:23

3D數字人

2024-12-10 15:17:11

2024-07-16 12:02:11

2025-03-18 10:32:47

2023-01-10 14:25:24

微軟AI

2023-07-14 09:41:01

3DAI

2023-09-21 12:33:31

3DAI

2022-09-29 16:11:54

3D訓練

2009-12-14 08:58:25

HTML5網頁3DWebGL

2025-01-14 10:30:00

3D生成AI

2023-05-09 13:45:46

ChatGPT3D

2022-08-03 13:52:22

AI建筑師

2011-04-26 14:21:20

3DJVC投影機

2025-01-14 09:24:46

2018-08-14 13:59:00

大數據

2019-11-18 10:22:01

深度學習編程人工智能

2024-01-08 13:34:00

模型訓練

2013-11-21 19:36:56

暢游游戲引擎Genesis-3D

2011-05-03 11:07:46

2D3D麗訊
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品成人一区二区 | 精品一区二区久久久久久久网站 | 成人av片在线观看 | 欧美日韩午夜精品 | 黄色一级大片视频 | 中文字幕av在线播放 | 亚洲综合一区二区三区 | 97国产精品视频人人做人人爱 | 精品国产一级 | 国产美女一区二区 | 玖玖国产精品视频 | 亚洲午夜精品一区二区三区他趣 | 亚洲综合在线视频 | 久久国产精品一区二区三区 | 97久久精品午夜一区二区 | 手机在线观看av | 亚洲婷婷六月天 | 九九视频网 | 国产免费拔擦拔擦8x高清 | 热久色| 99热精品久久 | 亚洲精品视频在线看 | 国产成人精品网站 | 亚洲 成人 av| 亚洲综合一区二区三区 | 成人性视频在线播放 | 欧洲精品视频一区 | 视频1区2区 | 男人阁久久 | 国产精品视频yy9299一区 | 亚洲精品中文字幕 | 小h片免费观看久久久久 | 免费看91 | 日本一区二区三区在线观看 | 天天干人人 | 欧美精品一区二区免费视频 | 亚洲欧洲激情 | 天天操天天射天天舔 | 日韩视频一区二区三区 | 一区二区三区亚洲 | 久久久精品网站 |