成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

李飛飛團隊新作:AI透視眼,穿越障礙看清你,渲染遮擋人體有新突破了

人工智能 新聞
最近,著名人工智能教授李飛飛在 X 上發布了有關 3D 人體渲染工作的新進展 —— 一種名為 Wild2Avatar 的新模型,該模型即使在有遮擋的情況下仍然能夠完整、高保真地渲染人體。

圖片

AR/VR 、電影和醫療等領域都在廣泛地應用視頻渲染人類形象。由于單目攝像頭的視頻獲取較為容易,因此從單目攝像頭中渲染人體一直是研究的主要方式。Vid2Avatar、MonoHuman  和 NeuMan  等方法都取得了令人矚目的成績。盡管只有一個攝像頭視角,這些方法仍能從新的視角準確地渲染人體。

不過,大多數現有的方法在渲染人體時都是針對較為理想的實驗場景進行設計的。在這些場景中,障礙物幾乎不存在,人的各個身體部分在每一幀中也都能全部展示出來。可這與現實場景大為不同。現實場景中常有多個障礙物,人體也會在移動過程中被障礙物遮擋。

大多數的神經渲染方法在處理現實世界的場景時都會因為遮擋而困難重重,其中一大原因就是缺乏監督。實際場景往往無法提供有關人體外觀、形狀和姿態的真實監督數據,因此模型需要根據現有的少量證據來推斷其他信息,而這十分具有挑戰性,尤其是大部分人體被遮擋的情況。

由于許多神經方法采用的基于點的渲染方案,當一個被遮擋和一個未被遮擋時,兩個非常接近的坐標會在渲染輸出上產生巨大差異。因此,那些未適應被遮擋場景的方法在遇到遮擋時經常會顯示出不完整的人體,或者渲染出漂浮物和其他視覺上的錯誤。

最近,著名人工智能教授李飛飛在 X 上發布了有關 3D 人體渲染工作的新進展 —— 一種名為 Wild2Avatar 的新模型,該模型即使在有遮擋的情況下仍然能夠完整、高保真地渲染人體。

Wild2Avatar 是一種適用于有遮擋的野外單目視頻的神經渲染方法。研究團隊提出了遮擋感知場景參數化,將場景解耦為三個部分 —— 遮擋、人體和背景,分別渲染這三個部分,并設計了新穎的優化目標。

圖片

  • 論文地址:https://arxiv.org/pdf/2401.00431.pdf
  • 項目地址:https://cs.stanford.edu/~xtiange/projects/wild2avatar/

方法介紹

Wild2Avatar 可以為帶有遮擋的野外單目視頻渲染具有完整幾何形狀和高保真外觀的 3D 人體。Wild2Avatar 模型的整體架構如下圖 2 所示:

圖片

具體來說,Wild2Avatar 將遮擋物、人體和背景建模為三個獨立的神經場,無論遮擋物如何,都能對人體進行清晰的三維重建。為此,該研究采用場景自分解技術,在倒球參數化(inverted sphere parametrization)的基礎上,提出了遮擋感知場景參數化。

圖片

除了倒球參數化定義的第一個球外,該研究還引入了第二個內球,并將從攝像機到內球邊緣的區域定義為遮擋區域。通過單獨渲染這一區域,Wild2Avatar 成功將遮擋與場景的其他部分分離開來。

此外,為了確保高保真和完整地渲染人體,該研究提出通過像素光度損失、場景分解損失、遮擋解耦損失和幾何完整性損失的組合來匯總三種渲染。

圖片

實驗及結果

數據集

OcMotion:該數據集由人體與各種物體接觸的室內場景組成,同時被這些物體部分遮擋。研究者從該數據集的 48 個視頻中選用了 5 個,它們展示了不同程度的遮擋。他們從每個視頻中只抽取了 100 幀來訓練模型,并使用數據集提供的相機矩陣、人體姿態和 SMPL 參數來初始化優化過程。幀內的二進制人體分割掩碼是通過「分割一切 (SAM)」獲得的。

野外視頻:研究者對兩段真實世界的視頻進行了額外的實驗,其中一段是從 YouTube 下載的,另一段是研究團隊使用手機攝像頭拍攝的。他們從這兩段視頻中抽取了 150 幀進行訓練,并使用 SLAHMR 獲取了攝像機矩陣、人體姿勢和 SMPL 參數。由于沒有提供真實姿態,因此對這些視頻的評估也表明了各種方法對不準確估計的穩健性。

被遮擋單目攝像頭視頻上的結果

圖 5 比較了 Vid2Avatar 和 Wild2Avatar 在兩個數據集上的渲染結果。

圖片

在表 1 中,研究者報告了兩種方法的量化結果,并觀察到二者在可見部分的渲染性能不相上下。不過,需要注意的是,Wild2Avatar 在身體幾何形狀和遮擋部分的渲染質量上始終優于 Vid2Avatar。

圖片

與 OccNeRF 的比較

研究者將 Wild2Avatar 與最近推出的遮擋人體渲染軟件 OccNeRF 進行比較。比較結果如圖 6 所示。

圖片

為了進行公平比較,他們分別在 500 幀和 100 幀圖像上對 OccNeRF 進行了訓練。由于沒有隱式 SDF 表征,OccNeRF 存在浮游物和偽影等常見缺陷。雖然 OccNeRF 也能恢復被遮擋的人體部位,但人體通常會意外扭曲,導致渲染質量較低。

場景分解的可視化

Wild2Avatar 以組合的方式渲染了三個場景部分。人和背景 / 遮擋物分別在兩個不同的神經場中建模。圖 7 展示了這三個場景部分的單獨渲染圖。需要注意的是,由于這項工作只專注于人體渲染,因此背景和遮擋物的無偽影渲染不在這項工作的討論范圍內。

圖片

消融實驗

盡管 Wild2Avatar 仍能恢復被遮擋的外觀,但在沒有提出的參數化的情況下,渲染結果中會出現許多偽影,見圖 8 第一行。

如果不采用建議的損失函數,則無法完全恢復被遮擋的區域,見圖 8 第二行。

提出的損失函數作為一個正則化器,強制人體幾何形態與 SMPL 網格先驗保持一致,這防止了錯誤姿態的渲染,見圖 8 第三行。

圖片

更多詳細內容,請閱讀原論文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-01-22 12:31:18

模型訓練

2023-11-05 15:15:47

AI技術

2020-04-07 15:22:56

李飛飛AI人工智能

2019-09-06 09:28:13

戴爾

2024-12-23 12:37:34

2024-02-05 12:47:23

模型數據

2025-03-20 14:24:21

2025-06-10 17:07:44

2023-12-13 21:50:59

騰訊AI模型

2018-11-21 14:54:56

2023-11-10 12:58:00

模型數據

2022-12-30 12:11:33

2024-03-08 12:46:00

AI訓練

2024-11-15 09:36:07

2022-08-29 14:43:24

斯坦福大學李飛飛AI

2025-03-12 08:54:46

2024-11-11 08:30:00

2023-05-31 16:09:58

2021-10-08 15:21:52

AI 數據人工智能

2024-09-03 14:30:00

機器人模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 毛片1| 国产精品一区二区av | 中文字幕亚洲无线 | 日韩精品专区在线影院重磅 | 精品欧美乱码久久久久久 | 国产高清在线精品一区二区三区 | 日本午夜视频 | 久草在线在线精品观看 | 日韩精品一区二区三区视频播放 | 久久精品在线播放 | 中文字幕日韩欧美 | 激情久久久久 | 亚洲自拍偷拍免费视频 | 美美女高清毛片视频免费观看 | 亚洲精品成人av久久 | 一起操网站 | 国产精品99久久久久久www | 国产综合久久 | 荷兰欧美一级毛片 | 欧美一区二区三区在线 | 一区二区中文 | 久久久久久亚洲 | 久久精品国产免费高清 | 91影院在线观看 | 日本精品视频一区二区三区四区 | 99视频在线 | 国产精品精品视频一区二区三区 | 国产免费观看一区 | 黑人精品 | 亚洲一区二区久久久 | 欧美一区二 | 一区二区三区欧美大片 | 国产成人精品一区二 | 久久精品中文 | 91在线观看免费视频 | 二区欧美 | 国产精品毛片无码 | 中文字幕1区 | 黄网站在线观看 | 精品在线一区 | 欧美日韩国产中文字幕 |