還不如GAN!谷歌、DeepMind等發(fā)文:擴散模型直接從訓練集里「抄」
去年,圖像生成模型大火,在一場大眾藝術狂歡后,接踵而來的還有版權問題。
類似DALL-E 2, Imagen和Stable Diffusion等深度學習模型的訓練都是在上億的數(shù)據上進行訓練的,根本無法擺脫訓練集的影響,但是否某些生成的圖像就完全來自于訓練集?如果生成圖像與原圖十分類似的話,其版權又歸誰所有?
最近來自谷歌、Deepmind、蘇黎世聯(lián)邦理工學院等多所知名大學和企業(yè)的研究人員們聯(lián)合發(fā)表了一篇論文,他們發(fā)現(xiàn)擴散模型確實可以記住訓練集中的樣本,并在生成過程中進行復現(xiàn)。
論文鏈接:?https://arxiv.org/abs/2301.13188?
在這項工作中,研究人員展示了擴散模型如何在其訓練數(shù)據中記憶單個圖像,并在生成時將其重新復現(xiàn)出來。
文中提出一個生成和過濾(generate-and-filter)的pipeline,從最先進的模型中提取了一千多個訓練實例,覆蓋范圍包含人物的照片、商標的公司標志等等。并且還在不同的環(huán)境中訓練了數(shù)百個擴散模型,以分析不同的建模和數(shù)據決定如何影響隱私。
總的來說,實驗結果顯示,擴散模型對訓練集的隱私保護比之前的生成模型(如GANs)要差得多。
記了,但記得不多
去噪擴散模型(denoising diffusion model)是近期興起的新型生成式神經網絡,通過迭代去噪的過程從訓練分布中生成圖像,比之前常用的GAN或VAE模型生成效果更好,并且更容易擴展模型和控制圖像生成,所以也迅速成為了各種高分辨率圖像生成的主流方法。
尤其是OpenAI發(fā)布DALL-E 2之后,擴散模型迅速火爆了整個AI生成領域。
生成式擴散模型的吸引力源于其合成表面上與訓練集中的任何東西都不同的新圖像的能力,事實上,過去的大規(guī)模訓練工作「沒有發(fā)現(xiàn)過擬合的問題」,而隱私敏感領域(privacy sensitive domain)的研究人員甚至提出,擴散模型可以通過合成圖像來「保護真實圖像的隱私」。
不過這些工作都依賴于一個假設:即擴散模型不會記憶并再次生成訓練數(shù)據,否則就會違反隱私保證,并引起諸多關于模型泛化和數(shù)字偽造(digital forgery)的問題。
但事實果真如此嗎?
要想判斷生成的圖像是否來自于訓練集,首先需要定義什么是「記憶」(memorization)。
之前的相關工作主要集中在文本語言模型上,如果模型能夠逐字從訓練集中恢復一個逐字記錄的序列,那么這個序列就被稱為「提取」和「記憶」了;但因為這項工作是基于高分辨率的圖像,所以逐字逐句匹配的記憶定義并不適合。
下面是研究人員定義的一個基于圖像相似性度量的記憶。
如果一個生成的圖像x,并且與訓練集中多個樣本之間的距離(distance)小于給定閾值,那么該樣本就被視為從訓練集中得到的,即Eidetic Memorization.
然后,文中設計了一個兩階段的數(shù)據抽取攻擊(data extraction attack)方法:
1. 生成大量圖像
第一步雖然很簡單,但計算成本很高:使用選定的prompt作為輸入,以黑盒的方式生成圖像。
研究人員為每個文本提示生成500張候選圖像以增加發(fā)現(xiàn)記憶的幾率。
2. 進行Membership Inference
把那些疑似是根據訓練集記憶生成的圖像標記出來。
研究人員設計的成員推理攻擊策略基于以下思路:對于兩個不同的隨機初始種子,擴散模型生成的兩張圖像相似概率會很大,并且有可能在距離度量下被認為是根據記憶生成的。
抽取結果
為了評估攻擊效果,研究人員從訓練數(shù)據集中選擇了35萬個重復率最高的例子,并為每個提示生成500張候選圖像(總共生成了1.75億張圖像)。
首先對所有這些生成的圖像進行排序,通過在團(clique)中的圖像之間的平均距離來識別那些可能通過記憶訓練數(shù)據生成的圖像。
然后把這些生成的圖像與訓練圖像進行比較,將每張圖像標注為「extracted」和「not extracted」,最終發(fā)現(xiàn)了94張疑似從訓練集中抽取的圖像。
通過視覺分析,將排名top 1000的圖片手動標注為「memorized」或「not memorized」,其中發(fā)現(xiàn)還有13張圖片是通過復制訓練樣本生成的。
從P-R曲線上來看,這種攻擊方式是非常精確的:在1.75億張生成的圖像中,可以識別出50張被記住的圖像,而假陽性率為0;并且所有根據記憶生成的圖像都可以被提取出來,精確度高于50%
為了更好地理解記憶是如何以及為什么會發(fā)生的,研究人員還在CIFAR10上訓練了數(shù)百個較小擴散模型,以分析模型精度、超參數(shù)、增強和重復數(shù)據刪除對隱私的影響。
Diffusion vs GAN
與擴散模型不同的是,GANs并沒有明確被訓練來記憶和重建其訓練數(shù)據集。
GANs由兩個相互競爭的神經網絡組成:一個生成器和一個判別器。生成器同樣接收隨機噪聲作為輸入,但與擴散模型不同的是,它必須在一次前向傳遞中把這種噪聲轉換成有效圖像。
訓練GAN的過程中,判別器需要預測圖像是否來自于生成器,而生成器需要提升自己以欺騙判別器。
因此,二者的不同之處在于,GAN的生成器只使用關于訓練數(shù)據的間接信息進行訓練(即使用來自判別器的梯度),并沒有直接接收訓練數(shù)據作為輸入。
不同的預訓練生成模型中抽取的100萬個無條件生成的訓練圖像,然后按FID排序的GAN模型(越低越好)放在上面,把擴散模型放在下面。
結果顯示,擴散模型比GAN模型記憶得更多,并且更好的生成模型(較低的FID)往往能記住更多的數(shù)據,也就是說,擴散模型是最不隱私的圖像模型形式,其泄露的訓練數(shù)據是GANs的兩倍以上。
并且從上面的結果中還可以發(fā)現(xiàn),現(xiàn)有的隱私增強技術并不能提供一個可接受的隱私-性能權衡,想提高生成質量,就需要記住更多訓練集中的數(shù)據。
總的來說,這篇論文強調了日益強大的生成模型和數(shù)據隱私之間的矛盾,并提出了關于擴散模型如何工作以及如何負責任地部署它們的問題。
版權問題
從技術上來講,重建(reconstruction)正是擴散模型的優(yōu)勢;但從版權上來說,重建就是軟肋。
由于擴散模型生成的圖像與訓練數(shù)據之間的過于相似,藝術家們對自己的版權問題進行了各種爭論。
比如禁止AI使用自己的作品進行訓練,發(fā)布的作品添加大量水印等等;并且Stable Diffusion也已經宣布,它計劃下一步只使用包含已授權內容的訓練數(shù)據集,并提供了一個藝術家退出機制。
在NLP領域同樣面臨這個問題,有網友表示自1993年以來已經發(fā)布了數(shù)百萬字的文本,而包括ChatGPT-3等所有AI都是在「被偷走的內容」上訓練的,使用基于AI的生成模型都是不道德的。
雖說天下文章一大抄,但對普通人來說,抄襲只是一種可有可無的捷徑;而對創(chuàng)造者來說,被抄襲的內容卻是他們的心血。
在未來,擴散模型還會有優(yōu)勢嗎?