成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成

發布于 2024-8-19 09:35
瀏覽
0收藏

只用不到10%的訓練參數,就能實現ControlNet一樣的可控生成!


而且SDXL、SD1.5等Stable Diffusion家族的常見模型都能適配,還是即插即用。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

同時還能搭配SVD控制視頻生成,動作細節控制得精準到手指。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

在這些圖像和視頻的背后,就是港中文賈佳亞團隊推出的開源圖像/視頻生成引導工具——ControlNeXt


從這個名字當中就能看出,研發團隊給它的定位,就是下一代的ControlNet。


像大神何愷明與謝賽寧的經典大作ResNeXt(ResNet的一種擴展),起名字也是用的這個路數。


有網友認為這個名字是實至名歸,確實是下一代的產品,將ControlNet提高了一個檔次。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

還有人直言ControlNeXt是規則改變者,讓可控生成的效率提升了一大截,期待看到人們用它創作的作品。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

蜘蛛俠跳起美女舞蹈

ControlNeXt支持多款SD系模型,而且即插即用。


其中包括了圖像生成模型SD1.5、SDXL、SD3(支持Super Resolution),還有視頻生成模型SVD。


話不多說,直接看效果。


可以看到,在SDXL中加入邊緣(Canny)引導,繪制出的二次元少女和控制線條幾乎完美貼合。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

即使控制輪廓又多又細碎,模型依然可以繪制出符合要求的圖片。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

而且無需額外訓練就可與其他LoRA權重無縫集成。


比如在SD1.5中,可以把姿勢(Pose)控制條件與各種LoRA搭配使用,形成風格迥異乃至跨越次元,但動作相同的角色。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

另外,ControlNeXt也支持遮罩(mask)和景深(depth)的控制模式。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

在SD3當中還支持Super Resolution(超級分辨率),可生成超高清晰度的圖像。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

視頻生成當中,ControlNeXt可以實現對人物動作的控制。


比如讓蜘蛛俠也跳起TikTok中的美女舞蹈,就連手指的動作也模仿得相當精準。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

甚至讓一把椅子也長出手跳同樣的舞蹈,雖然是抽象了一些,但單看動作復刻得還算不錯。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

而且相比于原始的ControlNet,ControlNeXt需要的訓練參數更少,收斂速度也更快。

比如在SD1.5和SDXL中,ControlNet需要的可學習參數分別是3.61億和12.51億,但ControlNeXt分別只需要3千萬和1.08億,不到ControlNet的10%

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

而在訓練過程中,ControlNeXt在400步左右就已接近收斂,但ControlNet卻需要十倍甚至數十倍的步數。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

生成的速度也比ControlNet更快,平均下來ControlNet相當于基礎模型會帶來41.9%的延時,但ControlNeXt只有10.4%。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

那么,ControlNeXt是如何實現的,對ControlNet進行了哪些改進呢?

更輕量化的條件控制模塊

首先用一張圖來了解一下ControlNeXt的整個工作流程。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

其中輕量化的關鍵,是ControlNeXt移除了ControlNet中的龐大控制分支,改為引入一個由少量ResNet塊組成的輕量級卷積模塊


這個模塊負責提取控制條件(如語義分割掩碼、關鍵點先驗等)的特征表示。


其中的訓練參數量通常不到ControlNet中預訓練模型的10%,但仍能很好地學習將輸入的條件控制信息,這種設計大大降低了計算開銷和內存占用。


具體來說,它從預訓練模型的不同網絡層的中等距采樣,形成用于訓練的參數子集,其余參數則被凍結。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

另外在設計ControlNeXt的架構時,研究團隊還保持了模型結構與原始架構的一致性,從而實現了即插即用。


無論是ControlNet還是ControlNeXt,條件控制信息的注入都是一個重要環節。


在這個過程中,ControlNeXt研究團隊主要針對兩個關鍵問題進行了深入研究——注入位置的選擇和注入方式的設計。


研究團隊觀察發現,在大多數可控生成任務中,指導生成的條件信息形式相對簡單,且與去噪過程中的特征高度相關。


所以團隊認為,沒有必要在去噪網絡的每一層都注入控制信息,于是選擇了只在網絡的中間層將條件特征與去噪特征聚合


聚合的方式也盡可能簡單——在用交叉歸一化對齊兩組特征的分布后,直接將其相加。


這樣既能確保控制信號影響去噪過程,又避免了注意力機制等復雜操作引入額外的學習參數和不穩定性。


這之中的交叉歸一化,也是ControlNeXt的另一項核心技術,替代了此前常用的zero-convolution等漸進式初始化策略。


傳統方法通過從零開始逐步釋放新模塊的影響力來緩解崩塌問題,但往往導致的結果就是收斂速度慢。


交叉歸一化則直接利用主干網絡去噪特征的均值μ和方差σ對控制模塊輸出的特征做歸一化,使二者的數據分布盡量對齊。

蜘蛛俠妖嬈起舞,下一代ControlNet來了!賈佳亞團隊推出,即插即用,還能控制視頻生成-AI.x社區

(注:?是為數值穩定性而添加的小常數,γ為縮放參數。)

歸一化后的控制特征再通過尺度和偏移參數調整幅度和基線,再與去噪特征相加,既避免了參數初始化的敏感性,又能在訓練初期就讓控制條件發揮作用,加快收斂進程。


此外,ControlNeXt還借助控制模塊學習條件信息到隱空間特征的映射,使其更加抽象和語義化,更有利于泛化到未見過的控制條件。


項目主頁:??https://pbihao.github.io/projects/controlnext/index.html???
論文地址:???https://arxiv.org/abs/2408.06070???
GitHub:???https://github.com/dvlab-research/ControlNeXt??


本文轉自 量子位 ,作者:量子位


原文鏈接:??https://mp.weixin.qq.com/s/kA-ckyx7yDz9cRaTtRiL1Q??

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 精品美女 | 成人一区二区三区在线观看 | 精品国产乱码久久久久久a丨 | 能看的av | 一区中文字幕 | 一级黄色毛片子 | 视频一区 国产精品 | 国产精品视频久久久 | 一区二区av | 欧美一级淫片免费视频黄 | 日韩在线免费视频 | 日韩av高清| 久久久精品一区二区三区四季av | 金莲网| 久久亚洲精品久久国产一区二区 | 国产精品欧美大片 | 欧美成人免费在线 | 亚洲国产精品激情在线观看 | 中文字幕在线免费视频 | 久久亚洲精品视频 | 孰女乱色一区二区三区 | 国产一区二区三区不卡av | 尤物视频在线免费观看 | 精品av| 国产www在线 | 久久伊 | 亚洲成人精品 | 一区二区三区国产 | 91日韩在线 | 91在线第一页 | 成人久草 | 国产日韩欧美精品一区二区三区 | 国产精品精品 | 看av网址 | 日本在线一二 | 中文字幕一区二区三区在线乱码 | 午夜噜噜噜 | 有码一区 | 久久天堂 | 国产一区二区三区色淫影院 | 欧美中文一区 |