視頻去物“魔法橡皮擦”來了!MiniMax-Remover:新SOTA方法告別CFG,六步搞定
論文鏈接:https://arxiv.org/pdf/2505.24873
項目鏈接:https://minimax-remover.github.io/
亮點直擊
- 提出了一種輕量且高效的基于 DiT 的視頻目標移除架構。MiniMax-Remover。受到“文本提示并不適合目標移除任務”這一觀察的啟發,用可學習的對比tokens(contrastive tokens)替代了文本條件,用于控制移除過程。這些 tokens被直接集成到自注意力流中,能夠移除預訓練視頻生成模型中的所有交叉注意力層。在第一階段中,本文模型參數更少,并且不再依賴模糊的文本指令。
- 在第二階段,在第一階段模型生成的1萬條人工篩選的視頻移除結果上進行了蒸餾訓練,并采用了 min-max 優化策略。
- 在多個基準測試上進行了大量實驗,表明本文方法在推理速度和視覺保真度方面都表現優越。
如下圖4和下表1所示,本文模型在僅使用6個采樣步驟的情況下即可生成高質量的移除結果,并且無需依賴無分類器引導(CFG)。
總結速覽
解決的問題
- 視頻目標移除中的核心挑戰:
- 模型容易生成幻覺物體(hallucinated objects)
- 存在視覺偽影(visual artifacts)
- 現有方法的局限性:
- 依賴計算成本高的采樣過程
- 嚴重依賴無分類器引導(Classifier-Free Guidance, CFG)
- 推理速度慢,效率低
提出的方案
- 提出 MiniMax-Remover:一種兩階段的視頻目標移除方法,包括:
- 第一階段:設計一個輕量化的視頻擴散模型,移除文本條件輸入和交叉注意力機制,減少模型復雜度。
- 第二階段:基于第一階段生成并人工篩選的高質量結果進行蒸餾訓練,引入minimax 優化策略提升魯棒性與效果。
應用的技術
- 架構簡化:
- 移除文本輸入和 cross-attention 層
- 使用可學習的對比 tokens (contrastive tokens)替代文本條件,直接嵌入自注意力流中
- 蒸餾訓練:
- 在1萬條人工篩選的成功視頻移除結果上進行蒸餾,提升模型泛化能力
- Minimax 優化策略:
- 內層最大化:尋找能誘發模型失敗的“壞噪聲”
- 外層最小化:訓練模型即使在惡劣輸入下也能生成高質量結果
達到的效果
- 高質量視頻目標移除:
- 僅使用6 個采樣步即可生成高保真移除結果
- 無需依賴 CFG,減少計算資源消耗
- 推理效率顯著提升:
- 模型更輕量,處理速度更快,適合實際部署
- 廣泛實驗驗證優越性:
- 在多個基準測試中表現出色,如上圖4和上表1所示
- 在視覺質量和推理速度上均優于現有方法
方法論
總體框架
階段 1:訓練一個輕量級的視頻目標移除模型。 本文方法遵循標準的視頻修復流程,但在此基礎上做出了兩個簡單而有效的改進。首先,本文通過移除無關組件設計了一個輕量級架構。與許多現有方法,如[56, 53, 46, 24]不同,本文不使用文本提示或光流等額外輸入,因此可以移除所有的交叉注意力層。其次,本文引入了兩個對比條件 tokens 來引導修復過程:一個是正向 tokens ,用于鼓勵模型在被遮擋區域內填充內容;另一個是負向 tokens ,用于抑制模型在這些區域生成不需要的物體。需要注意的是,與以往工作,如[53, 54, 23] 不同,本文僅使用目標 mask ,不依賴其他附加條件。
階段 2:通過人工引導的 minimax 優化增強模型的魯棒性與效率。 首先使用階段 1 的模型生成修復后的視頻樣本,然后請人工標注者挑選出成功的結果。在這個經過篩選的子集上,本文應用 minimax 優化訓練策略,以增強模型的魯棒性和生成質量。此外,蒸餾后的移除器在不使用 CFG 的情況下,僅需 6 步即可完成推理,從而實現快速推理。最終改進后的模型被稱為 MiniMax-Remover。
階段 1:用于視頻目標移除的簡單架構
本文方法基于預訓練的視頻生成模型 Wan2.1-1.3B,該模型是一個基于 DiT 架構的 Flow Matching 模型。
模型架構
移除預訓練 DiT 塊中的交叉注意力。 在預訓練的 Wan2.1-1.3B 模型中,時間信息通過 shift table 注入,該機制基于偏置來編碼時間步信息。此外,模型使用交叉注意力模塊來引入文本條件。然而,對于視頻目標移除任務而言,文本輸入通常是多余或模糊的。因此,在本文模型中,本文移除了 DiT 塊中的文本交叉注意力層,但保留了 shift table 以保留時間信息。
從 DiT 中移除交叉注意力帶來了一個挑戰:如何在不依賴文本提示的情況下有效注入條件信息。一個直接的方法是重用 shift table 來同時編碼時間步和條件信息。然而,本文實驗表明,這種方式會導致條件修復效果不佳。為了實現更有效的條件控制,本文選擇將對比條件 tokens 通過自注意力模塊注入到 DiT 塊中。
具體而言,本文使用一個可學習的嵌入層將條件 tokens 映射到高維特征空間,然后將該特征拆分為 6 個 token,以增強在注意力計算過程中的控制能力。這些條件 token 被拼接到原始的 key 和 value 中,從而在不大幅修改架構的前提下實現有效的條件控制。
用于目標移除的對比條件控制
正向 token 引導移除網絡學習目標移除,而負向 token 則鼓勵模型生成目標內容。本文需要指出,在第一階段訓練中本文使用了 CFG 以促進條件學習。然而,在第二階段中 CFG 被移除,以提高推理效率。
第一階段的局限性
盡管在簡潔性和速度方面有所提升,當前模型仍面臨三個局限性。(1) CFG 會使推理時間加倍,并且需要手動調整引導尺度,而該尺度在不同視頻中可能有所不同。(2) 每幀采樣 50 個擴散步驟仍然耗時較長。(3) 在目標移除區域內偶爾會出現偽影或不希望出現的目標重建,表明對比信號尚未完全發揮作用。為了解決這些問題,本文引入第二階段方法,旨在提升魯棒性、質量和效率。
MiniMax-Remover:基于人類反饋蒸餾更強的視頻目標移除器
盡管本文視頻目標移除器經過對比調控訓練,但它仍然會產生明顯偽影,甚至偶爾重建本應被移除的目標。進一步觀察表明,這些失敗案例與特定的輸入噪聲模式密切相關。這一發現促使本文設定目標:識別這些“壞噪聲”,并訓練目標移除模型對其具備魯棒性。
minmax 優化也使本文能夠擺脫對 CFG 的依賴。在第二階段中,本文移除了 CFG 以提高采樣效率。具體而言,在訓練過程中,本文省略了正向和負向條件 token。本文選擇將對此設計的更多分析放在附錄中。
搜索“壞”噪聲
針對“壞”噪聲的魯棒性優化
MiniMax-Remover 的優勢
MiniMax-Remover 擁有幾個關鍵優勢:
- 低訓練開銷。它僅需一次反向傳播來搜索“壞”噪聲,并使用簡化的架構訓練移除器,從而減少了內存消耗。
- 快速推理速度。MiniMax-Remover 僅使用 6 步采樣且不依賴 CFG,相比以往方法顯著加快了推理速度。
- 高質量。由于模型經過訓練能抵御“壞”噪聲,它很少在 mask 區域生成意外物體或視覺偽影,從而帶來更高的質量。
實驗
訓練數據集。 在第一階段,本文使用 Grounded-SAM2和 CogVLM2提供的字幕在無水印的 WebVid-10M 數據集上生成 mask 。隨機選取約 250 萬對視頻- mask 對用于訓練。在第二階段,本文從 Pexels收集了 1.7 萬個視頻,并應用與第一階段相同的標注流程。這些視頻隨后使用第一階段的模型進行處理,并手動挑選出 1 萬個視頻用于第二階段訓練。
推理細節。 推理使用 RTX 4090 GPU 進行。在輸入分辨率為 480p、幀長度為 81 的設置下,每個視頻推理大約耗時 24 秒,峰值 GPU 顯存消耗約為 14GB(DiT 占用 8GB,VAE 解碼占用 6GB),使用 6 步采樣。
基線方法。 本文將方法與 Propainter、VideoComposer 、COCOCO、FloED、DiffuEraser、VideoPainter和 VACE進行比較。本文將評估幀長度設為 32。為了使用相同的幀長度進行評估,本文擴展了 VideoComposer和 FloED的輸入幀長度。其余的視頻修復方法則使用其代碼庫中的默認幀長度。幀分辨率使用各自的默認設置。
評估指標。 本文使用 SSIM 和 PSNR 評估背景保留效果。TC 用于評估時間一致性,遵循 COCOCO 和 AVID,使用 CLIP-ViT-h-b14提取特征。GPT-O3用作客觀指標。本文在 DAVIS 數據集和 200 個隨機選取的 Pexels 視頻上評估這些指標,以展示在不同數據集上的泛化能力。需要注意的是,這 200 個 Pexels 視頻不包含在本文訓練數據集中,其 mask 由 GroundedSAM2 提取。在用戶研究中,參與者會看到一個多選問卷,要求識別哪個視頻最有效地移除了原始視頻中的目標對象,同時不引入模糊、視覺偽影或 mask 區域中的幻覺內容。
定量比較
定性結果
消融實驗
為了理解本文方法中各個組件和修改的影響,本文進行了逐步的消融實驗。所有實驗均使用 50 步采樣。
第一階段。 本文首先考察文本編碼器和基于提示的條件的作用。在 Ab-1 和 Ab-2 的比較中(見下表 3),本文用可學習的對比 token 替換了文本編碼器和提示。結果顯示性能沒有顯著下降,說明在使用合適的可學習 token 時,文本編碼器對于移除任務是冗余的。
接下來比較 Ab-2 和 Ab-3,本文在從 DiT 中移除交叉注意力模塊后觀察到輕微的性能下降。然而,當本文在自注意力層中引入可學習的對比條件 token(Ab-4)時,結果不僅恢復了,還超過了 Ab-1。這表明本文簡化的 DiT 架構是有效的。
第二階段。 本文比較了使用和不使用人工標注數據訓練的模型。結果(Ab-1 對比 Ab-2)顯示,僅使用人工標注數據并不能顯著提升性能,這可能是由于數據集規模(1 萬個視頻)和多樣性有限,限制了泛化能力。
此外,本文比較了訓練中使用的不同噪聲類型(Ab-2 到 Ab-3)。本文發現將“壞噪聲”(人為退化的輸入)加入訓練能顯著提升性能。
結論
MiniMax Remover,一個用于視頻中目標移除的兩階段框架。在第一階段,本文通過移除交叉注意力并用對比條件 token 替換提示嵌入,對預訓練的 DiT 進行了簡化。在第二階段,本文應用最小-最大優化:最大步驟尋找導致失敗案例的挑戰性噪聲輸入,而最小步驟訓練模型從這些對抗輸入中成功重建目標。通過這種兩階段訓練,本文方法實現了更干凈且視覺效果更佳的移除結果。由于無需分類器自由引導(CFG)且僅使用 6 步采樣,推理速度顯著加快。大量實驗表明,本文模型在多個基準上均實現了出色的移除性能。
本文轉自AI生成未來 ,作者:AI生成未來
原文鏈接:??https://mp.weixin.qq.com/s/q_WUl7xn2AvTAoIFqOhgTQ??
