成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

只需1%參數(shù),效果超越ControlNet,新AI繪畫控制大師來襲

人工智能 新聞
研究人員在評估了不同大小的控制模型后發(fā)現(xiàn),控制模型甚至不必和2.6B參數(shù)的StableDiffusion-XL基礎(chǔ)網(wǎng)絡(luò)大小一樣。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

“新·AI繪畫細(xì)節(jié)控制大師”ControlNet-XS來啦!

敲重點的是參數(shù)只要原始ControlNet的1%

就能做到蛋糕口味隨意切換:

圖片

△左圖為改前

改變一個人的行頭也輕輕松松:

圖片

上圖同款,身形不變藝術(shù)氛圍感拉滿:

圖片

自然風(fēng)光也能hou住,一年四季任意切換:

圖片

還有這貓頭鷹,直接從活物變雕塑:

圖片

參數(shù)很小的情況下,能做到這樣的效果,網(wǎng)友也是直呼絕絕子,并迫不及待想看論文。

圖片

ControlNet-XS由海德堡大學(xué)計算機視覺實驗室研發(fā),目前相關(guān)論文、預(yù)訓(xùn)練模型還未公布。

但研究人員表示ControlNet-XSFID分?jǐn)?shù)明顯優(yōu)于ControlNet

且控制Stable Diffusion-XL和Stable Diffusion 2.1的代碼將在不久后開源。

圖片

新生代控制大師

圖片

先來康康對StableDiffusion-XL的控制。

研究人員在評估了不同大小的控制模型后發(fā)現(xiàn),控制模型甚至不必和2.6B參數(shù)的StableDiffusion-XL基礎(chǔ)網(wǎng)絡(luò)大小一樣。

400M、104M和48M參數(shù)的ControlNet-XS控制也很明顯。

深度圖給出了更為直觀的展示,根據(jù)圖像內(nèi)容的距離、深度,深度圖呈現(xiàn)出準(zhǔn)確的顏色深淺度:

圖片

要注意的是,這里研究人員設(shè)置的每行seed值不同,每列seed值相同。

此外,還有Canny邊緣檢測圖,物體的邊界、輪廓都能清晰地展現(xiàn)出來:

圖片

對StableDiffusion的控制,研究人員則是評估了491M、55M和14M參數(shù)的三個版本的ControlNet-XS。

結(jié)果表明1.6%的參數(shù)(865M)也能夠可靠地控制生成過程。

圖片

那這是如何做到的呢?

從頭開始訓(xùn)練

原始ControlNet是StableDiffusion基礎(chǔ)模型(base model)中U-Net編碼器的副本,所以接收與基礎(chǔ)模型相同的輸入,并帶有額外的引導(dǎo)信號,比如說邊緣圖。

然后,經(jīng)過訓(xùn)練的ControlNet的中間輸出被添加到基礎(chǔ)模型的解碼器層的輸入中。在ControlNet的整個訓(xùn)練過程中,基礎(chǔ)模型的權(quán)重保持凍結(jié)狀態(tài)。

ControlNet-XS的研究者們認(rèn)為這種方法存在問題,ControlNet不必這么龐大。

首先是Stable Diffusion最終輸出圖像,是在一系列步驟中迭代生成的。每個步驟會在U-Net網(wǎng)絡(luò)結(jié)構(gòu)的編碼器(Encoder)和解碼器(Decoder)兩部分中執(zhí)行。

每次迭代基礎(chǔ)模型和控制模型的輸入是前一個步驟生成的圖像。控制模型還接收一個控制圖像。

問題在于,在編碼器階段這兩個模型都獨立運行,而控制模型的反饋只在基礎(chǔ)模型的解碼階段輸入。

總之,結(jié)果就是一個延遲的校正/控制機制

也就是說ControlNet必須執(zhí)行兩項任務(wù):一邊校正/控制,一邊還要提前預(yù)測基本模型的編碼器將犯哪些“錯誤”。

通過暗示圖像生成和控制需要相似的模型容量,自然而然地可以用基礎(chǔ)模型的權(quán)重初始化ControlNet的權(quán)重,然后進行微調(diào)。

圖片

而對于ControlNet-XS,研究人員表示從設(shè)計上就與基礎(chǔ)模型不同,是從零開始訓(xùn)練ControlNet-XS權(quán)重,解決了延遲反饋的問題。

如上圖所示,方法是從基礎(chǔ)模型的編碼器添加連接到控制編碼器(A),這樣校正過程可以更快地適應(yīng)基礎(chǔ)模型的生成過程。但這并不能完全消除延遲,因為基礎(chǔ)模型的編碼器仍然沒有受到引導(dǎo)。

因此,研究人員從ControlNet-XS添加額外的連接到基礎(chǔ)模型編碼器,直接影響整個生成過程(B)。

此外,他們還評估了在ControlNet設(shè)置中使用鏡像解碼架構(gòu)是否有用(C)。

最終,研究人員在COCO2017驗證集上,針對Canny邊緣引導(dǎo)的三種不同變體(A、B、C)與原始的ControlNet進行了FID分?jǐn)?shù)性能評估。

結(jié)果所有變體都有了顯著提升,同時僅使用了原始ControlNet參數(shù)的一小部分。

圖片

研究人員又拿出了變體B,分別使用Canny邊緣圖和深度圖引導(dǎo),針對StableDiffusion2.1和StableDiffusion-XL分別訓(xùn)練了三種不同大小的模型。

圖片

所以下一步就等相關(guān)論文、代碼以及預(yù)訓(xùn)練模型公布啦~

圖片

項目地址:https://vislearn.github.io/ControlNet-XS/

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-02-22 17:38:17

AI

2023-03-02 14:00:03

AI繪畫

2024-12-30 08:50:00

AI數(shù)據(jù)訓(xùn)練

2024-03-01 12:33:14

模型訓(xùn)練

2024-11-04 08:47:00

2023-05-06 08:23:36

ChatGPT自然語言技術(shù)

2021-04-22 10:13:34

鴻蒙HarmonyOS應(yīng)用

2023-03-17 16:44:16

AI繪畫

2017-08-17 11:56:24

天貓

2024-11-12 14:00:00

AI編程

2013-03-11 13:48:24

投影

2014-10-21 14:46:26

2023-02-28 23:16:38

AI視頻技術(shù)

2023-02-27 13:57:43

ChatGPTAI繪畫

2022-08-08 09:47:09

AI算法模型

2025-06-23 08:56:00

2022-11-09 15:41:47

人工智能小程序視頻

2023-09-21 10:38:00

繪畫AI
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 能看的av | 亚洲一区二区三区四区五区午夜 | 国产在线观看 | 亚洲视频不卡 | 日韩一区不卡 | 一级毛片在线播放 | 一级免费黄色 | 一区二区免费看 | 羞羞网站在线免费观看 | 日韩一区二区三区视频 | 欧美日韩国产精品一区 | 亚洲在线一区二区 | 日韩免费在线 | www国产成人免费观看视频,深夜成人网 | 欧美日韩精品免费观看 | 日韩成人在线播放 | 国产乱码精品一区二区三区五月婷 | 2018中文字幕第一页 | 久久久精品视频一区二区三区 | 成人免费视频7777777 | 日韩综合| 尤物视频在线免费观看 | 国产又色又爽又黄又免费 | 日日操夜夜摸 | 91精品国产综合久久久久 | 日韩欧美日韩在线 | 黄色免费在线观看网址 | 超碰人人在线 | 91视频在线看 | 国产精品中文 | 亚洲狠狠丁香婷婷综合久久久 | 日韩在线精品强乱中文字幕 | 久久夜色精品国产 | 国产在线观看网站 | 狠狠干天天干 | 热99| 国产91丝袜在线18 | 国产精品久久久久久久久久免费看 | 天天干国产 | 丁香五月网久久综合 | 日韩成人在线网址 |