成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

給圖片悄悄加上像素級水印:防止AI「抄襲」藝術(shù)作品的方法找到了

人工智能 新聞
本文介紹的是一篇收錄于 ICML 2023 Oral 的論文,論文由位于上海交通大學(xué)的上海市可擴(kuò)展計算與系統(tǒng)重點(diǎn)實(shí)驗室、紐約大學(xué)和貝爾法斯特女王大學(xué)的華揚(yáng)老師共同完成。論文的共同一作是即將攻讀南加州大學(xué)博士學(xué)位的梁楚盟和上海交通大學(xué)的研究生吳曉宇。

自開源 AI 圖像生成模型 Stable Diffusion 發(fā)布以來,數(shù)字藝術(shù)創(chuàng)作進(jìn)入了一個全新的階段。Textual Inversion,Dreambooth 和 LoRA 等多種以 Stable Diffusion 為基礎(chǔ)的模型微調(diào)技術(shù)催生了大量能夠創(chuàng)作特定風(fēng)格繪畫作品的藝術(shù)「私爐」。這些「私爐」能夠從多則幾十張少則幾張的繪畫作品中訓(xùn)練學(xué)習(xí)其藝術(shù)風(fēng)格或內(nèi)容,并模仿這些風(fēng)格、內(nèi)容創(chuàng)作新的作品。這些技術(shù)使得每個人都能以較低的成本創(chuàng)造自定義的繪畫作品。

然而,這些微調(diào)技術(shù)卻飽受繪畫創(chuàng)作者們的非議和批評。在創(chuàng)作者們看來,「私爐」產(chǎn)出的繪畫作品更像是在人類繪畫作品的基礎(chǔ)上進(jìn)行移花接木,是一種「高明的抄襲」。更有人利用此類技術(shù)專門模仿特定畫手的風(fēng)格生產(chǎn)畫作,并以此在網(wǎng)絡(luò)上對畫手本人進(jìn)行攻擊。一些創(chuàng)作者選擇從互聯(lián)網(wǎng)上撤下自己的畫作,通過物理隔絕的方式避免畫作被用于訓(xùn)練 AI。

最近的一項工作提出了一個避免繪畫作品被用于 AI 模型微調(diào)訓(xùn)練的算法框架「AdvDM」。通過在畫作中添加像素級的微小水印,該框架能夠有效誤導(dǎo)當(dāng)前的模型微調(diào)技術(shù),讓模型無法從畫作中正確地學(xué)習(xí)其藝術(shù)風(fēng)格和內(nèi)容并進(jìn)行模仿創(chuàng)作。在相關(guān)法律法規(guī)尚不完善的當(dāng)下,這一技術(shù)能夠成為藝術(shù)創(chuàng)作者保護(hù)自身權(quán)益、對抗 AI 濫用行為的工具。

圖片


  • 論文地址:https://arxiv.org/abs/2302.04578
  • 項目主頁:https://mist-project.github.io/
  • 開源地址:https://github.com/mist-project/mist

在擴(kuò)散模型中定義對抗樣本

在傳統(tǒng)圖像分類任務(wù)中,對抗樣本是一類被廣泛研究的圖像。它們和真實(shí)圖像的最大差距僅有幾個像素值,這一差距常常無法被人眼所識別。但圖像分類的 AI 模型卻會將其錯誤地分類。這類樣本的定義由下面的公式給出:

圖片

直白地說,對抗樣本是經(jīng)過一點(diǎn)微小擾動的真實(shí)圖像。這個擾動的方向由最大化模型分類損失函數(shù)的方向確定。也就是說,將真實(shí)圖像向模型分類正確的反方向推動一點(diǎn)點(diǎn)。在具體操作時,推動的最大像素值的上限受到嚴(yán)格限制。這保證了人眼難以識別這種擾動。例如:下圖中綠色方框內(nèi)的貓和紅色方框內(nèi)的貓在人類視覺下幾乎完全一樣。然而,實(shí)驗證明,即使是一點(diǎn)極其微小的像素擾動也足以讓分類模型判斷錯誤:下圖中紅色方框內(nèi)的貓在分類模型看來是一只狗。

圖片

不難發(fā)現(xiàn),讓畫作不被擴(kuò)散模型通過微調(diào)正確學(xué)習(xí)的想法和對抗樣本的概念有許多相似之處:它們同樣要求模型在特定圖像上無法完成給定任務(wù),它們也同樣不希望顯著改變圖像在人類視覺下的內(nèi)容。受到對抗樣本的啟發(fā),作者在擴(kuò)散模型乃至生成模型的語境中給出對抗樣本的定義:

圖片

公式中的來自于生成模型的建模。和圖像分類任務(wù)不同,圖像生成任務(wù)是一個從一批訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)怎么生成類似圖像的過程。其中不存在(圖像,類別)這樣的輸入 - 輸出對。因此,無法直接通過給定輸入糾正輸出的方式來對模型進(jìn)行訓(xùn)練。作為替代,生成任務(wù)通過模型參數(shù) θ 定義了特定圖像樣本 x 在模型看來屬于真實(shí)圖像的概率。對于訓(xùn)練數(shù)據(jù)集中的圖像,作者自然希望其圖片越大越好,最好無限接近于 1。因此,在訓(xùn)練數(shù)據(jù)集的圖像 x 上最大化圖片就成了訓(xùn)練生成模型最常用的優(yōu)化目標(biāo)。

而站在對抗樣本的視角,一個自然的想法是:對于一個訓(xùn)練好的生成模型,如果圖像圖片圖片非常小,那么說明模型不認(rèn)為圖片圖片是一張真實(shí)圖像。因此,模型無法從自己已有的知識庫中找到能夠有效匹配圖像的內(nèi)容的相關(guān)信息,進(jìn)而無法有效描述這張圖像上的內(nèi)容。模型不認(rèn)識圖片上的內(nèi)容,自然也就無法正確復(fù)刻其藝術(shù)風(fēng)格。這與保護(hù)藝術(shù)作品的研究動機(jī)相合。在現(xiàn)實(shí)應(yīng)用中,藝術(shù)創(chuàng)作者們需要的是能夠基于真實(shí)圖像 x 生成在像素距離上非常接近、人眼無法識別其區(qū)別的對抗樣本。因此,尋找生成模型對抗樣本的過程可以被建模為:通過給真實(shí)圖像 x 上添加一層微小的像素擾動圖片,最小化生成模型的圖片。最后得到的對抗樣本即為最優(yōu)噪聲圖片和原圖 x 的加和。

圖片

計算擴(kuò)散模型的對抗樣本

然而,優(yōu)化擴(kuò)散模型的對抗樣本并不是一個簡單的任務(wù)。在生成模型的優(yōu)化中,并不能直接通過計算得出。在最大化的過程中,常用的一個方案是最大化的一個理論下界,即證據(jù)下界(ELBO)。類似地,在對抗樣本的優(yōu)化過程中,也可以通過最小化的一個上界來替代最小化的過程。具體來說,在擴(kuò)散模型中,可展開為擴(kuò)散模型中的隱變量的積分:

圖片

由此,可以通過蒙特卡洛方法,對隱變量圖片進(jìn)行采樣,并在采樣基礎(chǔ)上優(yōu)化上式的被積函數(shù)圖片,從而達(dá)到優(yōu)化圖片的目的。優(yōu)化目標(biāo)可改寫成下式:

圖片

擴(kuò)散模型擁有一個非常優(yōu)秀的性質(zhì):后驗分布圖片是一個高斯分布。該分布的參數(shù)固定且與圖片完全獨(dú)立。因此,這個分布的在對抗樣本的優(yōu)化過程中是不變的。在優(yōu)化過程中,可以利用圖片將原優(yōu)化目標(biāo)改寫成更易計算的形式:

圖片

可以看到:公式(7)最后得到的目標(biāo)函數(shù)形式非常類似于擴(kuò)散模型訓(xùn)練時的損失函數(shù)。最大的區(qū)別在于優(yōu)化變量的變化。在訓(xùn)練時,優(yōu)化變量是模型參數(shù) θ ;而在產(chǎn)生對抗樣本時,優(yōu)化變量是對抗樣本上添加的擾動圖片。這個目標(biāo)函數(shù)顯然是可以直接計算的。

得到了優(yōu)化對抗樣本的目標(biāo)函數(shù)之后,接下來考慮如何優(yōu)化這個目標(biāo)函數(shù)。而優(yōu)化過程最大的難點(diǎn)是如何計算目標(biāo)函數(shù)的梯度。很容易發(fā)現(xiàn),現(xiàn)在的目標(biāo)函數(shù)被寫成了期望的形式。在計算期望的梯度時進(jìn)行了一次近似:用梯度的期望近似期望的梯度,通過多次采樣隱變量并計算對應(yīng)采樣下的

圖片的梯度來估計圖片期望的梯度。

圖片

由于圖片由總共 T 項的單層噪聲估計差異函數(shù)聯(lián)合組成,作者在計算時參考擴(kuò)散模型論文中給出的計算方法,在1~T的范圍內(nèi)均勻采樣得 t,將多次采樣的第 t 項函數(shù)的平均值作為圖片的估計值。

同時,在考慮對擾動圖片的大小進(jìn)行約束時,參考了現(xiàn)有的對抗攻擊方法的范式,即利用符號函數(shù)來約束梯度的大小。令圖片表示第步的對抗性樣本。第(i+1)步的對抗性樣本可以通過沿著公式(8)中梯度的方向更新單步步長圖片所得:圖片所得:

圖片

直觀地說,AdvDM 算法采樣不同的隱變量,并針對每個采樣進(jìn)行一次梯度上升。完整的算法如下:

圖片

實(shí)驗結(jié)果

作者在圖像內(nèi)容學(xué)習(xí)和圖像風(fēng)格遷移兩個場景下測試了 AdvDM 算法框架的效果。

針對圖像內(nèi)容學(xué)習(xí)的保護(hù)

利用微調(diào)技術(shù),擴(kuò)散模型能夠?qū)⒁唤M圖像中的相同物體抽取為一個概念 S*,并基于概念生成新圖片。例如:通過學(xué)習(xí)一組同一只貓在森林中漫步的圖片,模型能夠生成這只貓在沙灘曬太陽的圖片。在本實(shí)驗中,作者把含有同一類物體的原圖作為對照組,把原圖經(jīng) AdvDM 處理后得到的對抗樣本作為實(shí)驗組,分別在兩組圖片上進(jìn)行擴(kuò)散模型微調(diào)訓(xùn)練,并利用微調(diào)中抽取的概念生成新圖片。此時,比較生成圖片和微調(diào)所用的訓(xùn)練圖片的差異能夠反映基于對照組和實(shí)驗組圖片進(jìn)行模型微調(diào)的效果差別。若基于實(shí)驗組生成圖片與原圖的差距遠(yuǎn)大于對照組中的差距,則可說明 AdvDM 算法成功阻止了模型通過微調(diào)抽取數(shù)據(jù)集中的內(nèi)容。

具體實(shí)驗中,作者使用了 LSUN-cat、LSUN-sheep 和 LSUN-airplane 三個單類別圖像數(shù)據(jù)集。作者從每個數(shù)據(jù)集中隨機(jī)抽取 1,000 張圖片選作微調(diào)訓(xùn)練數(shù)據(jù)集。根據(jù) Textual Inversion 微調(diào)方法的官方推薦,以每 5 張測試圖片為一組抽取一個概念 S*,并用抽取的概念生成總計 10,000 張圖像。作者使用 Fréchet Inception Distance(FID)和 Precision(prec.)對生成圖像與原始圖像的相似度進(jìn)行了評估。實(shí)驗結(jié)果顯示在下表中。可以觀察到,AdvDM 生成的對抗樣本顯著增加了生成的圖像的 FID 值并降低了 Precision 值。這表明 AdvDM 能夠有效地保護(hù)圖像的內(nèi)容,避免其內(nèi)容概念被擴(kuò)散模型抽取,并用于后續(xù)的生成。

圖片

針對風(fēng)格遷移的保護(hù)

另外一個受到廣泛關(guān)注的重要微調(diào)場景是擴(kuò)散模型支持的的藝術(shù)風(fēng)格遷移。該場景通過在少量屬于相同或相似藝術(shù)風(fēng)格的畫作圖片上微調(diào)擴(kuò)散模型,能夠從圖片數(shù)據(jù)中歸納出其共同風(fēng)格的概念 S*,并基于這一概念生成具有類似風(fēng)格的新圖片。

針對該場景,作者在 WikiArt 數(shù)據(jù)集中選擇 10 位個人風(fēng)格鮮明的藝術(shù)家的畫作。作者使用 AdvDM 處理這些畫作,并在處理前、后的畫作上分別微調(diào)擴(kuò)散模型。在微調(diào)結(jié)束后,作者再通過模型學(xué)習(xí)的風(fēng)格概念生成新的畫作。生成對比結(jié)果如下圖所示。可以觀察到 AdvDM 處理后生成的圖片普遍圖像質(zhì)量較低,具有混亂的紋理,喪失了作為藝術(shù)作品的可用性。這表明 AdvDM 可有效對抗基于擴(kuò)散模型的藝術(shù)風(fēng)格遷移。

圖片

近期,作者已將該工作擴(kuò)展為開源應(yīng)用 Mist。Mist 針對更多的微調(diào)技術(shù)和更為復(fù)雜的場景均具有較好的效果,并對去噪有一定魯棒性。相關(guān)工作已更新在 GitHub 倉庫中。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2021-01-18 15:24:05

AI 數(shù)據(jù)人工智能

2023-08-20 12:15:33

人工智能模型

2022-09-13 15:56:48

AI創(chuàng)造藝術(shù)谷歌

2025-04-09 08:00:00

2024-03-13 09:00:00

人工智能Nightshade人工智能毒化

2023-09-01 10:13:15

AI藝術(shù)

2009-11-24 15:43:17

PHP給圖片加水印

2020-06-17 09:59:17

人工智能

2022-06-08 12:10:56

canvasvue.js

2020-10-22 09:13:14

NVIDIA

2016-09-06 21:09:35

Phpgd庫圖片水印

2023-02-28 23:19:32

AI藝術(shù)圖片工具

2023-09-27 12:11:08

Python水印Pillow

2022-03-07 09:20:00

JavaScripThree.jsNFT

2022-07-04 09:12:09

AI技術(shù)論文

2024-07-09 15:46:56

2023-05-06 18:37:43

2021-03-05 15:09:59

人工智能人臉識別安全
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 中文字幕一区二区三区精彩视频 | 精品一区av | 国产精品国产自产拍高清 | 天天拍天天草 | 亚洲一区二区三区在线播放 | a在线免费观看视频 | 欧美日韩在线成人 | 国产在线精品一区二区三区 | 性做久久久久久免费观看欧美 | 亚洲欧美日韩精品久久亚洲区 | 成人免费精品 | 久久久免费观看视频 | 久久国产精99精产国高潮 | 成人在线观看免费 | xxxxx黄色片 欧美一区免费 | 日本一区二区视频 | 日韩国产欧美在线观看 | 日韩伦理一区二区 | 精品国产精品 | 久草视频在线播放 | 四虎永久在线精品免费一区二 | 日本免费网 | 1204国产成人精品视频 | 视频国产一区 | 国产午夜亚洲精品不卡 | 久久亚洲综合 | 国产成人精品免费 | 欧美一卡二卡在线 | 久久精品91 | 久久久精品视 | 精品在线一区 | www.亚洲一区二区三区 | 国产亚洲精品精品国产亚洲综合 | 国产一区二区影院 | 成人黄页在线观看 | 久久久精品网 | 91影院| 一级毛片免费 | 国产精品美女在线观看 | 一区二区三区欧美 | 国产高清一二三区 |