超越ControlNet++!騰訊優圖提出動態條件選擇新架構
超越ControlNet++,讓文生圖更可控的新框架來了!
騰訊優圖、南洋理工、浙大等研究機構聯合推出DynamicControl,直接將多模態大語言模型(MLLM)的推理能力集成到文本生成圖像(T2I))任務中。
而且還提出了一種新穎、高效的多控制適配器,可以自適應地選擇不同的條件,從而實現動態多控制對齊。
實驗結果顯示,DynamicControl大大增強了可控性,且不會犧牲圖像質量或圖像文本對齊。
話不多說,下面來看具體內容。
DynamicControl:動態條件選擇新架構
基于ControlNet類模型,之前的工作探索了各種控制信號,例如布局約束、分割圖和深度圖,以決定生成的圖像中的空間排列、物體形狀和景深。
此外,該領域還見證了使用快速工程和交叉注意約束來進一步完善圖像生成的調節。
不過現有方式均存在各自的局限性。
比如,考慮到一個對象的多種條件,一條線路(例如UniControl、UniControlNet)在訓練過程中隨機選擇一次激活一種條件,如圖1(a) 所示。
這種處理不同視覺條件的能力非常低效,將大大增加訓練的計算負擔和時間成本。
另一類方法(例如AnyControl、ControlNet++)使用固定數量(通常為2或4)的條件,并采用MoE設計或多控制編碼器來解決條件數量變化的問題,如圖1(b) 所示。
然而,這種固定數量方案并沒有從根本上解決多條件問題,也沒有考慮多條件是否與生成結果相沖突。
雖然這些方法擴展了受控圖像生成的可行性和應用,但在不同條件下增強可控性的清晰而全面的方法仍然是一個正在進行的研究和開發領域。這凸顯了在T2I擴散模型中集成和優化控制機制以實現更可靠和更詳細的圖像合成方面需要不斷創新。
給定來自同一主題的多個條件,對于相同的文本提示,不同的條件在顏色、紋理、布局,合理性等方面產生不同的結果。
此外,從與源圖像的相似度SSIM得分來看,不同的條件難以準確生成與輸入源圖像一致的圖像。這也表明不同條件對生成更好圖像的貢獻不同,有些條件甚至會產生負面影響。
因此,在先前的方法中,僅選擇一個或固定數量的條件而不考慮它們在生成更接近源圖像的圖像方面的重要性以及每個條件之間的內部關系是次優的。
為了解決這個問題,研究提出了DynamicControl,這是一個支持多種控制信號動態組合的新框架,它可以自適應地選擇不同數量和類型的條件,如圖1(c)所示。
具體咋做到的
算法的整體流程如下圖所示。
給定多種條件,研究首先引入雙循環控制器來產生真實的排名分數,作為與MLLM結合訓練條件評估器的監督信號。
然后,這些排名的條件與來自預訓練條件評估器的選擇分數由多控制適配器動態編碼,以實現可控的圖像生成。
Double-Cycle Controlle
鑒于研究將多條件可控性概念化為輸入條件之間的動態選擇,因此使用判別獎勵模型來衡量這種選擇是可行的。
通過量化生成模型的輸出,研究能夠依靠這些定量評估來集體增強各種條件控制的優化,以促進更可控的生成過程。
具體來說,給定多個條件和文本提示,研究首先利用預訓練的條件生成模型為每個條件生成圖像。
然后通過不同的預訓練判別模型提取相應的反向條件。
基于這些生成的圖像和反向條件,研究設計了一個雙循環控制器,對輸入的多個控制條件進行初始重要性評估。該雙循環控制器由兩個一致性分數組成,即條件一致性和圖像一致性。
(1)條件一致性。對于每個輸入條件和生成圖像的相應輸出條件,研究優化了條件循環一致性損失以獲得更好的可控性,其公式為:
這里研究對擾動圖像執行單步采樣,其中D是判別獎勵模型,用于優化G的可控性。L表示抽象度量函數,可根據特定的視覺條件適應各種具體形式。
這種靈活性使其能夠根據不同視覺分析任務的獨特要求進行定制,從而增強模型在不同場景中的適用性和有效性。
(2)反向圖像一致性。除了條件一致性之外,研究還采用反向圖像一致性損失來保證原始圖像與生成的圖像相似。
研究通過最小化生成的圖像和源圖像之間的像素和語義差異來實現這一點。給定源圖像和生成的圖像的CLIP嵌入,損失定義為:
這種損失確保模型在應用條件和文本指令時能夠忠實地反轉條件并返回到源圖像,通過最小化源圖像和生成的圖像之間的差異來強制執行模型。
Condition Evaluator
雖然雙循環控制器可以對各種控制條件進行綜合評分,但仍然面臨兩個挑戰:
(i)使用預先訓練的生成模型進行圖像合成都會給結果帶來較高的不確定性,這意味著對所采用的基礎生成模型的依賴性很高。
(ii)源圖像在測試過程中不可用,尤其是在用戶指定的任務中。為了解決這個問題,研究在網絡架構中引入了多模態大語言模型(MLLM)。
如圖3所示,給定條件c1、c2、…、cN和指令τ,研究的主要目標是利用雙周期控制器的得分排序來優化條件的最佳排序。
研究用N個新標記“<con0>、…、<conN>”,擴展了LLaVA的原始LLM詞匯表以表示生成信息,并將這些標記附加到指令τ的末尾。
然后,將條件c1、c2、…、cN和重新組織的指令τ’輸入到大語言模型 (VLLM) LLaV A(·; ω) 中以獲得對標記的響應,這些標記被處理以提取相應的隱藏狀態hi ∈ H,從VLLM對輸入的表示中捕獲更深層的語義信息。
然而,這些隱藏狀態主要存在于LLM的文本向量空間中,在與擴散模型(尤其是基于CLIP文本嵌入訓練的模型)交互時會出現兼容性問題。這種差異可能會阻礙模型之間的有效集成。
考慮到這一點,研究遷移了Q-Former,以將隱藏狀態細化為與擴散模型兼容的嵌入fc。
轉換過程表示為:
循環優化過程可以表述為:
隨后,每個條件的LLM預測結果由雙循環控制器的相應排序分數進行監督,從而優化最終的排序排名。該過程表示為:
多控制適配器動態編碼
為了適應多種動態控制條件的同時應用,作者們創新性地設計了一個多控制適配器。該適配器用于自適應地解釋復雜的控制信號,從而能夠從文本提示和動態空間條件中提取全面的多控制嵌入。
在獲得經過良好預訓練的條件評估器后,可以利用其強大的理解能力對所有輸入條件進行評分。
從評分條件池中,只有那些達到或超過預定義閾值的條件才會被選中參與后續的T2I模型優化。
這種選擇性方法確保只有最相關和最高質量的條件才能參與訓練過程,從而有可能提高T2I模型的有效性和效率。
關于閾值設置,它不是手動預定義的,也不是在訓練集內的所有數據對中保持一致的。相反,它被配置為一個可學習的參數,允許模型自適應地確定和調整各種數據集的閾值。
因此,這種自適應機制導致動態和多樣化的控制條件在數量和類型上都沒有沖突。
這些條件在訓練過程中的使用取決于每個數據集的具體特征。這種方法確保訓練能夠根據各種數據輸入的獨特需求和細微差別進行量身定制。
實驗結果
概括而言,來自各種條件控制的實驗結果表明,DynamicControl大大增強了可控性,而不會犧牲圖像質量或圖像文本對齊。
其中,不同條件控制和數據集下的可控性比較如下。
不同條件控制和數據集下的FID(↓)/ CLIP 分數(↑)比較如下。
可視化結果也出來了。
總結
在論文中,研究從定量和定性的角度證明了現有的專注于可控生成的研究仍然未能充分利用多種控制條件的潛力,導致生成的圖像與輸入條件不一致。
為了解決這個問題,研究引入了DynamicControl ,它使用高效的條件評估器對條件進行排序,明確優化了多個輸入條件和生成的圖像之間的一致性,從而將MLLM的推理能力集成到T2I生成任務中。
此外,研究還提出了一種新穎而高效的多控制適配器,可以自適應地選擇不同的條件,從而實現動態多控制對齊。
來自各種條件控制的實驗結果表明,DynamicControl大大增強了可控性,而不會犧牲圖像質量或圖像文本對齊。
這為可控視覺生成提供了新的視角。
論文:https://arxiv.org/abs/2412.03255
項目主頁:https://hithqd.github.io/projects/Dynamiccontrol/