成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GPT-3、Stable Diffusion一起助攻,讓模型聽懂甲方修圖需求

人工智能 新聞
AI 可以完全按照甲方意愿修圖?GPT-3、Stable Diffusion 一起助攻,讓模型秒變 PS 高手,改圖隨心所欲。

擴散模型大火之后,很多人將注意力放到了如何利用更有效的 prompt 生成自己想要的圖像。在對于一些 AI 作畫模型的不斷嘗試中,人們甚至總結出了讓 AI 好好出圖的關鍵詞經驗:

圖片

也就是說,如果掌握了正確的 AI 話術,作圖質量提升效果將非常明顯(參見:《??「羊駝打籃球」怎么畫?有人花了 13 美元逼 DALL·E 2 亮出真本事?? 》)。

此外,還有一部分研究者在往另一個方向努力:如何動動嘴皮子就把一幅畫改成我們想要的樣子。

前段時間,我們報道了一項??來自谷歌研究院等機構的研究???。只要說出你想讓一幅圖變成什么樣子,它就能基本滿足你的要求,生成照片級的圖像,例如讓一只小狗坐下:

圖片

這里給模型的輸入描述是「一只坐下的狗」,但是按照人們的日常交流習慣,最自然的描述應該是「讓這只狗坐下」。有研究者認為這是一個應該優化的問題,模型應該更符合人類的語言習慣。

最近,來自 UC 伯克利的研究團隊提出了一種根據人類指令編輯圖像的新方法 InstructPix2Pix:給定輸入圖像和告訴模型要做什么的文本描述,模型就能遵循描述指令來編輯圖像。

圖片

論文地址:https://arxiv.org/pdf/2211.09800.pdf

例如,要把畫中的向日葵換成玫瑰,你只需要直接對模型說「把向日葵換成玫瑰」:

圖片

為了獲得訓練數據,該研究將兩個大型預訓練模型——語言模型 (GPT-3) 和文本到圖像生成模型 (Stable Diffusion) 結合起來,生成圖像編輯示例的大型成對訓練數據集。研究者在這個大型數據集上訓練了新模型 InstructPix2Pix,并在推理時泛化到真實圖像和用戶編寫的指令上。

InstructPix2Pix 是一個條件擴散模型,給定一個輸入圖像和一個編輯圖像的文本指令,它就能生成編輯后的圖像。該模型直接在前向傳播(forward pass)中執行圖像編輯,不需要任何額外的示例圖像、輸入 / 輸出圖像的完整描述或每個示例的微調,因此該模型僅需幾秒就能快速編輯圖像。

盡管 InstructPix2Pix 完全是在合成示例(即 GPT-3 生成的文本描述和 Stable Diffusion 生成的圖像)上進行訓練的,但該模型實現了對任意真實圖像和人類編寫文本的零樣本泛化。該模型支持直觀的圖像編輯,包括替換對象、更改圖像風格等等。

圖片

方法概覽

研究者將基于指令的圖像編輯視為一個監督學習問題:首先,他們生成了一個包含文本編輯指令和編輯前后圖像的成對訓練數據集(圖 2a-c),然后在這個生成的數據集上訓練了一個圖像編輯擴散模型(圖 2d)。盡管訓練時使用的是生成的圖像和編輯指令,但模型仍然能夠使用人工編寫的任意指令來編輯真實的圖像。下圖 2 是方法概述。

圖片

生成一個多模態訓練數據集?

在數據集生成階段,研究者結合了一個大型語言模型(GPT-3)和一個文本轉圖像模型(Stable Diffusion)的能力,生成了一個包含文本編輯指令和編輯前后對應圖像的多模態訓練數據集。這一過程包含以下步驟:

  • 微調 GPT-3 以生成文本編輯內容集合:給定一個描述圖像的 prompt,生成一個描述要進行的更改的文本指令和一個描述更改后圖像的 prompt(圖 2a);
  • 使用文本轉圖像模型將兩個文本 prompt(即編輯之前和編輯之后)轉換為一對對應的圖像(圖 2b)。

InstructPix2Pix 

研究者使用生成的訓練數據來訓練一個條件擴散模型,該模型基于 Stable Diffusion 模型,可以根據書面指令編輯圖像。

擴散模型學習通過一系列估計數據分布分數(指向高密度數據的方向)的去噪自編碼器來生成數據樣本。Latent diffusion 通過在預訓練的具有編碼器和解碼器的變分自編碼器的潛空間中操作來提高擴散模型的效率和質量。

對于一個圖像 x,擴散過程向編碼的 latent  中添加噪聲,它產生一個有噪聲的 latent z_t,其中噪聲水平隨時間步 t∈T 而增加。研究者學習一個網絡,它在給定圖像調節 C_I 和文本指令調節 C_T 的情況下,預測添加到帶噪 latent z_t 中的噪聲。研究者將以下 latent 擴散目標最小化:

圖片

此前,曾有研究(Wang et al.)表明,對于圖像翻譯(image translation)任務,尤其是在成對訓練數據有限的情況下,微調大型圖像擴散模型優于從頭訓練。因此在新研究中,作者使用預訓練的 Stable Diffusion checkpoint 初始化模型的權重,利用其強大的文本到圖像生成能力。

為了支持圖像調節,研究人員向第一個卷積層添加額外的輸入通道,連接 z_t 和圖片。擴散模型的所有可用權重都從預訓練的 checkpoint 初始化,同時在新添加的輸入通道上運行的權重被初始化為零。作者在這里重用最初用于 caption 的相同的文本調節機制,而沒有將文本編輯指令 c_T 作為輸入。

實驗結果

在下面這些圖中,作者展示了他們新模型的圖像編輯結果。這些結果針對一組不同的真實照片和藝術品。新模型成功地執行了許多具有挑戰性的編輯,包括替換對象、改變季節和天氣、替換背景、修改材料屬性、轉換藝術媒介等等。

圖片

圖片

圖片

圖片

研究人員將新方法與最近的一些技術,如 SDEdit、Text2Live 等進行了比較。新模型遵循編輯圖像的說明,而其他方法(包括基準方法)需要對圖像或編輯層進行描述。因此在比較時,作者對后者提供「編輯后」的文本標注代替編輯說明。作者還把新方法和 SDEdit 進行定量比較,使用兩個衡量圖像一致性和編輯質量的指標。最后,作者展示了生成訓練數據的大小和質量如何影響模型性能的消融結果。

圖片

圖片

責任編輯:張燕妮 來源: 機器之心
相關推薦

2021-03-23 15:21:00

人工智能機器學習技術

2022-03-30 15:20:19

AI自然語言模型

2023-03-09 08:15:56

GPT-3系統數據

2023-04-07 09:53:02

量子AI

2023-03-01 16:15:16

2021-07-19 10:56:36

GPE-3OpenAI微軟

2022-03-24 10:35:38

人工智能模型代碼

2021-04-12 18:03:39

Nginx架構負載

2023-02-14 08:00:00

人工智能GPT-3語言模型

2023-03-26 23:47:32

Go內存模型

2021-07-02 20:46:06

Go接口動態

2022-11-10 15:45:02

模型APP

2022-03-14 09:33:56

神經網絡模型人工智能

2021-10-28 09:19:29

模型人工智能Facebook

2009-06-19 15:11:34

DWR和Spring

2021-09-11 19:02:34

Hook使用版本

2023-12-04 13:38:55

模型3D可視化

2023-11-17 15:50:27

AI訓練

2023-06-08 15:33:31

人工智能GPT-3

2024-03-11 00:09:00

模型融合場景
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 视频精品一区二区三区 | 国产精品性做久久久久久 | 色接久久 | 在线一区 | 日韩精品一区在线观看 | 国产欧美一区二区三区在线看 | 在线观看第一页 | 伊人免费视频二 | 99久久精品国产毛片 | 日本精品一区二区 | 久久精品久久久久久 | 国产精品美女在线观看 | 日韩免费激情视频 | 草草视频在线免费观看 | av小说在线 | 午夜小电影| 久久国产精品-国产精品 | 天天干夜夜操视频 | 亚洲欧美在线视频 | 国产香蕉视频 | 视频一区在线 | 免费在线视频一区二区 | 91久久国产综合久久 | 久久视频免费观看 | 综合久久久 | 欧美久久精品一级黑人c片 91免费在线视频 | 亚洲精品视频免费 | 日本免费一区二区三区四区 | 激情小视频 | 午夜男人视频 | xx视频在线观看 | www.性色 | 欧美国产一区二区三区 | 天天拍天天射 | h在线播放 | 91精品在线播放 | 中文字幕在线观看一区 | 一区二区三区在线免费观看 | 国产精品1区 | 免费一级欧美在线观看视频 | 精品国产乱码久久久久久中文 |