50張圖“毒倒”Stable Diffusion,汽車和牛都分不清了
藝術(shù)家對AI侵權(quán)的反擊來了——
在畫作里“投毒”,AI用了就會“中毒”出故障。
投毒工具由芝加哥大學(xué)團(tuán)隊打造,名為Nightshade,可以對畫中像素添加隱形更改。
被下毒的畫一旦被非法抓取成為訓(xùn)練數(shù)據(jù)被AI吃掉,模型就會生成混亂。
甚至還可能會破壞DALL-E、Midjourney、Stable Diffusion……這些繪圖模型的正常迭代。
先來看一波模型中毒發(fā)作時的樣子。
沒中毒時模型生成的狗是左圖這樣嬸兒的,中毒后生成的狗如右圖(喵):
生成汽車更離譜,這是生成了輛牛車?
此外,研究人員用Stable Diffusion測試毒效,只需50張毒圖,就能讓模型輸出變得奇怪;數(shù)量達(dá)到300張時,生成的圖像已經(jīng)完全變成了另一個物種。
△生成手提包和帽子,從左到右:沒被下毒、用50張有毒圖訓(xùn)練、100張、300張,下同
看過了實物生成,再來看生成不同藝術(shù)風(fēng)格的畫。
模型中毒后把奇幻藝術(shù)生成了點彩畫法,立體主義生成了動漫風(fēng)格:
卡通、概念藝術(shù)等也沒能逃過:
重點是,由于模型訓(xùn)練數(shù)據(jù)量龐大,模型中毒后,AI模型開發(fā)者想清理有毒的數(shù)據(jù)樣本也很難。
這款工具一經(jīng)曝出,藝術(shù)創(chuàng)作者們就趕緊轉(zhuǎn)發(fā)了起來,熱度一路飆升。
路過的藝術(shù)創(chuàng)作者紛紛拍手叫絕:
終于有可以用來反擊的東西了??
看熱鬧的網(wǎng)友也不少,開始調(diào)侃此前一些AI公司“適者生存”、“不能阻止技術(shù)進(jìn)步”的回應(yīng):
AI兄弟們:適者生存,不然就die。
藝術(shù)家:好吧,制造毒液。
AI兄弟們:等等,不是這個意思??!
不少網(wǎng)友將其稱為“藝術(shù)的反擊”:
很高興看到關(guān)于創(chuàng)意DNA拉鋸戰(zhàn)正在展開。
雙管齊下&毒性很強
研究團(tuán)隊不止開發(fā)了一款工具,還有一個工具叫做Glaze,可以“掩蓋”藝術(shù)家的個人風(fēng)格。
它的原理和Nightshade類似,也是對圖像像素做一些微妙地改變,肉眼根本看不出來,但卻可以操縱模型將圖像解釋成與實際內(nèi)容不同的東西。
研究團(tuán)隊還打算把Nightshade集成到Glaze中,藝術(shù)家可以自己選擇是否要下毒。
領(lǐng)導(dǎo)開發(fā)團(tuán)隊的芝加哥大學(xué)教授Ben Zhao表示:
希望此舉能夠讓作品權(quán)利從AI公司回歸到藝術(shù)家,通過形成有力的威懾,保護(hù)藝術(shù)家的版權(quán)和知識產(chǎn)權(quán)。
團(tuán)隊在用Stable Diffusion的最新模型以及從頭訓(xùn)練的基礎(chǔ)模型測試毒效時還發(fā)現(xiàn):
“生成式AI模型擅長在詞與詞之間建立聯(lián)系”這一特點有助于毒素的傳播。
比如說,Nightshade不僅會影響“狗”的生成,還會影響“小狗”、“哈士奇”、“狼”等所有類似的概念。
有間接聯(lián)系的概念也同樣會受影響,標(biāo)為“奇幻藝術(shù)”的有毒圖像,也會影響“龍”、“《指環(huán)王》中的城堡”等的生成。
Ben Zhao教授雖承認(rèn)這種工具有可能會被惡意使用,但表示:
想對那些經(jīng)過數(shù)十億數(shù)據(jù)訓(xùn)練的大模型造成實質(zhì)性的傷害,將需要數(shù)千個有毒的樣本。
據(jù)MIT Technology Review消息,Nightshade的研究已向網(wǎng)絡(luò)安全頂會Usenix提交同行評審。
同時Nightshade也是奔著開源去的,其他人之后也可以修改制作不同的版本。
引起圈內(nèi)外熱議
這個工具不僅引起了藝術(shù)家和網(wǎng)友們的討論,一些專家學(xué)者也紛紛提出了自己的看法。
專注于研究AI模型安全性的康奈爾大學(xué)教授Vitaly Shmatikov就說:
我們目前還不知道如何有效地防御(模型抓取數(shù)據(jù)),也還沒有在現(xiàn)實中看到針對機器學(xué)習(xí)模型的下毒打擊,但這可能只是時間問題,現(xiàn)在就應(yīng)該開始研究防御手段。
研究AI模型數(shù)據(jù)隱私和魯棒性的滑鐵盧大學(xué)助理教授Gautam Kamath表示:
太棒了。研究顯示,這些新模型的漏洞并不會神奇地消失,實際上問題只會變得更加嚴(yán)重。尤其是隨著時間的推移,這些模型變得更加強大,人們對它們的信任度增加時,所面臨的風(fēng)險也只會增加。
使用過Glaze的插畫師Eva Toorenent還透露:
Stability AI、OpenAI等開發(fā)生成式繪圖模型的AI公司已經(jīng)提議,讓藝術(shù)家選擇不用他們的畫來訓(xùn)練之后版本的模型。但藝術(shù)家們表示這還不夠,因為選擇退出流程需要進(jìn)行一系列復(fù)雜操作,而技術(shù)公司仍然握有所有的權(quán)力。
這會讓AI公司三思而后行,如果未經(jīng)我們的同意就取用我們的作品,他們很可能會毀掉自己的整個模型。