成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!

發布于 2024-10-17 10:45
瀏覽
0收藏

今天給大家介紹的這項工作是伊利諾伊大學厄巴納-香檳分校的研究者們提出的一個新任務 Graph2Image,其特點是通過調節圖信息來合成圖像,并引入了一種名為InstructG2I的新型圖調節擴散模型來解決這個問題。


在INSTRUCTG2I的工作中,研究者們開發了一種新方法來生成圖像,這種方法不僅依賴于文本描述,還考慮到圖中其他相關信息。想象一下,如果你要畫一幅畫,除了有一個簡單的描述,比如“雪中的房子”,你還可以參考與這個房子相關的其他房子或景物的信息。INSTRUCTG2I首先會找出與目標圖像最相關的鄰居圖像,這些圖像是通過一種叫做個性化頁面排名的技術來選擇的。接著,它會使用一種特殊的模型(Graph-QFormer)來理解這些鄰居圖像與目標圖像之間的關系,然后把這些信息與文本描述結合起來,最終生成一幅新圖像。這樣,生成的圖像不僅能符合描述,還能融入其他相關圖像的風格和特征,確保生成的內容更豐富、更有趣。


UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區

相關鏈接

論文閱讀:http://arxiv.org/abs/2410.07157v1

項目主頁:https://instructg2i.github.io/

論文閱讀

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區

InstructG2I:從多模態屬性圖合成圖像

摘要

在本文中,我們研究了一個被忽視但關鍵的任務Graph2Image:從多模態屬性圖(MMAG)生成圖像。由于圖大小的爆炸性增長、圖實體之間的依賴關系以及圖條件的可控性需求,該任務提出了重大挑戰。為了解決這些挑戰,我們提出了一種稱為InstructG2I 的圖上下文條件擴散模型 。 InstructG2I首先利用圖結構和多模態信息,通過結合個性化頁面排名和基于視覺語言特征的重新排名來進行信息鄰居采樣。然后,Graph-QFormer 編碼器自適應地將圖節點編碼為輔助圖提示集 ,以指導擴散的去噪過程。最后,我們提出了無圖分類器的指導,通過改變圖指導的強度和節點的多個連接邊來實現可控生成。對來自不同領域的三個數據集進行的廣泛實驗證明了我們方法的有效性和可控性。

方法

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區

InstructG2I 的整體框架。 (a)給定多模態屬性圖 (MMAG) 中帶有文本提示的目標節點(例如,雪中的房子),我們希望為其生成圖像,(b)我們首先執行基于語義 PPR 的鄰居采樣,這涉及結構感知的個性化 PageRank 和基于語義感知的相似性的重新排序,以在圖中采樣信息豐富的鄰居節點。(c)然后將這些鄰居節點輸入到 Graph-QFormer 中,由多個自注意和交叉注意層編碼,表示為圖形標記并與文本提示標記一起用于指導擴散模型的去噪過程。

可控生成

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區

實驗

定性評價

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區

定性評價。我們的方法通過更好地利用來自相鄰節點(圖中的“采樣鄰居”)的圖形信息,表現出與真實情況更好的一致性。

文字與圖表指導平衡

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區


InstructG2I平衡文本引導和圖形引導 的能力。

多圖指導研究

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區

多圖指導研究。根據單個或多個圖形指導(“畢加索”和“庫爾貝”風格)生成帶有輸入文本提示“彈鋼琴的人”的藝術作品。


虛擬藝術家

UIUC提出InstructG2I:從多模態屬性圖合成圖像?,結合文本和圖信息生成內容更豐富有趣!-AI.x社區

虛擬藝術家(我們可以結合任意數量的任何藝術家的風格)。在這個例子中,我們生成了結合巴勃羅·畢加索和我弟弟的風格的圖片。

結論

本文確定了多模態屬性圖 (MMAG) 上的圖像合成問題。并提出了一個圖形上下文條件擴散模型,該模型:

(1)使用基于語義個性化 PageRank 的方法對圖上的相關鄰居進行采樣;

(2)通過使用 Graph-QFormer 考慮它們的依賴性,有效地將圖形信息編碼為圖形提示;

(3)在無圖分類器的指導下生成受控圖像。

在藝術、電子商務和文學領域的 MMAG 上進行了系統實驗,證明了該方法與競爭性基線方法相比的有效性。


本文轉自 AI生成未來  ,作者:AI生成未來


原文鏈接:??https://mp.weixin.qq.com/s/2ZTyOXFSQUmXRYmvFvGvUA??

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 欧美三级电影在线播放 | 色综合久久久久 | 日韩一区二区三区精品 | 精品久久久久久亚洲精品 | 日韩在线视频免费观看 | 亚洲精品天堂 | 日韩欧美精品 | 中文字幕第一页在线 | 一区二区在线免费观看 | 91资源在线 | 黄a免费看 | 日韩一区二区福利视频 | 欧美激情在线一区二区三区 | 91资源在线 | 黄色毛片一级 | 欧美一区二区三区在线观看 | 久草视频在线播放 | 爱综合| 欧美狠狠操 | 成人精品一区二区三区中文字幕 | 在线观看精品 | 一本一道久久a久久精品蜜桃 | 国产精品免费看 | 理论片87福利理论电影 | 欧美中文字幕一区二区三区亚洲 | 天堂av资源 | 久久精品国产一区二区电影 | www.v888av.com| 91一区二区 | 成人av一区二区亚洲精 | 欧美一级片黄色 | 岛国在线免费观看 | 一本一道久久a久久精品综合蜜臀 | 美女二区 | 日本超碰 | 91影库| 亚洲综合在线视频 | 在线观看深夜视频 | 黄色大片免费看 | 超碰在线影院 | 亚洲一区二区三区 |