成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

雙人動作生成新SOTA!浙大提出TIMotion框架 | CVPR 2025

人工智能 新聞
浙江大學提出了一種對雙人運動序列進行時序和因果建模的架構TIMotion,論文已發表于CVPR 2025。

雙人動作生成新SOTA!

針對Human-human motion generation問題,浙江大學提出了一種對雙人運動序列進行時序和因果建模的架構TIMotion,論文已發表于CVPR 2025

圖片

具體來說,通過分別利用運動序列時間上的因果關系和兩人交互過程中的主動被動關系,TIMotion設計了兩種有效的序列建模方式。

此外還設計了局部運動模式增強,使得生成的運動更加平滑自然。

同一提示詞下,使用TIMotion和當前SOTA方法Intergen對比如下:

(翻譯版)這兩個人傾斜著身子,面對面,玩起了石頭剪刀布。與此同時,有一個人選擇出布。

圖片

仔細對比手部動作,可以看出TIMotion的生成效果更好。

除此之外,實驗結果顯示,TIMotion在InterHuman和InterX數據集上均達到了SOTA效果。

下面具體來看。

全新瞄準雙人動作生成

在生成式計算機視覺領域,人類動作生成對計算機動畫、游戲開發和機器人控制都具有重要意義。

近年來,在用戶指定的各種條件的驅動下,人類動作生成技術取得了顯著進步。其中,許多利用大語言模型和擴散模型的方法得益于其強大的建模能力,在生成逼真而多樣的動作方面取得了令人矚目的成果。

盡管取得了這一進展,但現有的大多數方法主要是針對單人運動場景而設計的,因此忽略了人體運動的一個關鍵因素:人與人之間復雜而動態的互動

為了更好地探索雙人動作生成,研究團隊首先抽象出了一個通用框架MetaMotion,如圖1左側所示,它由兩個階段組成:時序建模和交互混合。

以往的方法優先考慮的是交互混合而非時序建模,主要分為以下兩類:

  • 基于單人生成方法的擴展
  • 基于單人建模的方法

如圖(a)所示,基于單人生成方法的擴展會將兩個人合并成一個人,然后將其輸入現有的單人運動生成模塊之中。基于單人建模的方法如圖(b)所示,是對兩個個體單獨建模,然后分別使用自我注意和交叉注意機制,從兩個個體自身和對方身上提取運動信息。

圖片

按照MetaMotion的一般邏輯,團隊提出了 “時空交互框架”(Temporal and Interactive Framework),如圖(c)所示,該框架模擬了人與人之間的因果互動,這種有效的時序建模方法可以簡化交互混合模塊的設計,減少可學習參數的數量。

提出雙人動作生成架構TIMotion

團隊首次提出了用于雙人動作生成的核心概念 “MetaMotion”。

如上圖所示,他們將雙人運動生成過程抽象為兩個階段:時序建模和交互混合

具體來說,兩個單人序列通過時序建模模塊得到輸入序列。然后,輸入序列被送入交互混合模塊,這一過程可表示為圖片其中,InteractionMixing通常是Transformer結構,包括自注意和交叉注意機制。

值得注意的是,InteractionMixing也可以是一些新興結構,比如Mamba、RWKV等等。

TIMotion

TIMotion的整體架構如下圖所示,主要包含三個部分:(1) Causal Interactive Injection; (2) Role-Evolving Scanning; (3) Localized Pattern Amplification。

圖片

Causal Interactive Injection

運動的自我感知以及與他人運動的交互感知是雙人運動生成的關鍵要素。

考慮到運動的因果屬性,團隊提出了 “因果互動注入”(Causal Interactive Injection)這一時序建模方法,以同時實現對自我運動的感知和兩人之間的互動。

具體來說,團隊用圖片表示兩個單人運動序列,其中圖片圖片是各自的運動序列,L是序列的長度。

由于兩個人在當前時間步的運動是由他們在之前時間步的運動共同決定的,因此團隊將兩個人的運動序列建模為一個因果交互序列圖片,符號 // 表示除法后四舍五入,k可以通過下式獲得:

圖片

然后,團隊可以將它們注入交互混合模塊,并根據k的定義將兩個個體的動作特征從輸出結果中分離出來。

Role-Evolving Scanning

人類在交互過程中通常存在一定的內在順序,例如,“握手”通常由一個人先伸出手,這意味著交互動作可以被分為主動運動和被動運動

一些方法將文本描述分為主動和被動語態。

然而,隨著互動的進行,“主動方”和“被動方”不斷在兩人之間交換,如圖3所示。

為了避免冗余的文本預處理并且適應角色的不斷變化,論文設計了一種高效且有效的方法:角色演變掃描(Role-Evolving Scanning)。

圖片

對于在Causal Interactive Injection中定義的因果交互序列x,顯然a和b分別代表了主動方運動序列和被動方運動序列。然而這種關于主動和被動序列的假設并不總是符合實際順序。

為了應對角色的變化,論文將因果交互序列重新建模為對稱因果交互序列圖片,k’由下式得到:

圖片

給定因果交互序列和對稱因果交互序列,論文通過角色演變掃描得到最終的雙人交互序列:

圖片

然后序列X被送入交互混合模塊得到動作的特征。

接下來,分別按照特征通道和時間的維度將兩個人的特征取出,并按照元素相加得到兩人交互后的最終特征,特征split和fuse過程如下式:

圖片

其中圖片表示按元素相加。

通過利用 “角色演變掃描 ”技術讓兩個人同時扮演主動和被動角色,網絡可以根據文本的語義和動作的上下文動態調整兩個人的角色。

Localized Pattern Amplification

因果交互注入和角色演變掃描主要基于雙人互動之間的因果關系來建模整體運動,但忽視了對局部運動模式的關注。

為了解決這個問題,論文提出了局部運動模式增強(Localized Pattern Amplification),通過捕捉每個人的短期運動模式,使得生成更加平滑和合理的運動。

具體來說,論文利用一維卷積層和殘差結構來實現局部運動模式增強。給定條件嵌入和兩個單人的運動序列,可以建立下式的結構:

圖片

其中Convk表示卷積核為k的一維卷積,AdaLN為自適應層正則化。

得到全局輸出圖片和局部輸出圖片后,兩者通過特征通道維度的進行Concat,然后通過線性層對特征進行轉換,得到最終輸出特征:

圖片

通過這種方式,能夠捕捉每個人的短期動作模式,并將其與條件嵌入結合,從而生成更平滑和更合理的動作序列。

目標函數

論文采用了常見的單人動作損失函數,包括足部接觸損失和關節速度損失。

此外,還使用了與InterGen相同的正則化損失函數,包括骨長度損失、掩碼關節距離圖損失和相對方向損失。

最終,總體損失定義為:

圖片

實驗結果

在InterHuman數據集上,TIMotion在三個不同的交互混合結構(Transformer, Mamba, RWKV)上都獲得了較好的表現,其中TIMotion和RWKV結構相結合FID達4.702,Top1 R precision達到0.501,達到了SOTA。

圖片

在InterX數據集上,TIMotion在R precision,FID, MM Dist等度量指標上也達到了最優的表現。

圖片

在計算復雜度方面,論文將TIMotion與當前最先進的方法InterGen進行了比較。

與InterGen相比,TIMotion所需的參數和FLOPs更少,但在綜合指標FID和R Precision方面優于InterGen。

值得注意的是,使用與InterGen類似的Transformer架構,TIMotion每個樣本的平均推理時間僅為0.632秒,而InterGen則需要1.991秒。

圖片

論文在InterHuman的測試集上進行了運動編輯的實驗,通過給定序列的前10%和后10%幀讓模型預測額外80%幀的序列來進行評估方法的可編輯性。

Table 6顯示了TIMotion在運動插值編輯任務中,在所有度量指標上都超越了InterGen。

圖片

總結

論文將雙人運動生成過程抽象為一個通用框架MetaMotion,其中包括兩個階段:時間建模和交互混合。

研究發現,由于目前的方法對時序建模的關注不足,導致次優結果和模型參數冗余。

在此基礎上,團隊提出了TIMotion,這是一種高效、出色的雙人運動生成方法。

具體來說,他們首先提出了Causal Interactive Injection,利用時序和因果屬性將兩個獨立的擔任序列建模為一個因果序列。

此外,還提出了Role-Evolving Mixing來適應整個互動過程中的動態角色,并設計了Localized Pattern Amplification來捕捉短期運動模式,從而生成更平滑、更合理的運動。

TIMotion在兩個大規模雙人運動生成的數據集InterHuman和InterX上均達到了SOTA的效果,證明了論文所提出方法的有效性。

因此,TIMotion為Human-human motion generation提供了一個有效的解決方案。

論文:
https://arxiv.org/abs/2408.17135
項目主頁:
https://aigc-explorer.github.io/TIMotion-page/

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-01-13 12:33:42

2024-01-18 12:37:31

SOTA3D方法

2024-08-06 11:30:00

2025-01-26 10:27:50

生成AI模型

2022-11-08 15:05:49

模型參數

2021-09-15 15:04:13

數據視頻技術

2024-12-23 15:30:00

模型AI測試

2025-05-30 09:00:00

AI生成視頻

2023-07-27 13:58:19

2024-01-12 13:10:06

AI數據

2025-03-21 09:30:42

2025-06-24 11:50:37

模型數據開源

2023-03-09 14:04:00

谷歌研究

2025-01-26 10:50:00

模型視頻生成

2025-03-03 08:00:00

小紅書AI圖像檢測模型AI

2021-12-01 10:05:12

模型人工智能計算

2025-05-29 09:34:14

2025-03-10 08:47:00

模型AI訓練

2025-04-25 09:05:00

2025-06-13 08:46:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产亚洲二区 | 亚洲一二三区不卡 | 91精品国产欧美一区二区成人 | 欧美一区二区黄 | 国产美女特级嫩嫩嫩bbb片 | 米奇成人网| 一区二区三区免费在线观看 | 亚洲高清在线 | 伊人春色在线 | 国产乱码一二三区精品 | 在线观看av网站永久 | 草草影院ccyy | 久久久久成人精品 | 欧美成人精品一区 | 一区二区三区精品在线视频 | 日韩在线精品 | 日韩中文字幕在线观看视频 | 免费久久精品 | 日韩成人中文字幕 | 香蕉视频1024| www.亚洲区| 国产盗摄视频 | 日韩精品一区二区三区中文在线 | 久久99视频这里只有精品 | 精品成人69xx.xyz | 久久久久久成人 | 在线观看免费毛片 | 久久精品成人一区 | 欧美视频一区 | 国产二区三区 | 日本h片在线观看 | 日韩免费一区二区 | 欧州一区 | 亚洲福利一区 | 久操国产| 国产精品观看 | 久久激情av| 欧美在线观看一区 | 操久久| 欧美成人精品一区二区男人看 | 午夜丁香视频在线观看 |