譯者 | 陳峻
審校 | 重樓
如您所見,當前正在發生的這場人工智能(AI)革命已經席卷了各行各業。其中給人最直觀的感受便是,在基于交互式人機對話的基礎上,AI算法不但可以生成類似人類語言的文本,而且能夠根據一個(組)單詞創建圖像和視頻。不過,這些人工智能工具(尤其是像DALL-E、Midjourney等從文本到圖像的生成器)所使用的訓練數據,往往來自受版權保護的數據源。
而在數字世界中,阻止人工智能生成工具使用受版權保護的圖像進行訓練,通常是非常困難的。一直以來,各行各業的藝術家們都在以不同的方式,努力保護著自己的作品,免受人工智能訓練數據集的影響。
現如今,隨著Nightshade的出現,這一切將會發生根本性的改變。簡單而言,Nightshade是一款免費的人工智能工具,可用于對生成式人工智能工具的輸出進行“毒化”,并最終讓藝術家們能夠捍衛自己的版權。
什么是人工智能毒化(AI Poisoning)?
從概念上說,人工智能毒化是指在人工智能算法的訓練數據集中“下毒”的一種行為。這類似于故意向人工智能提供錯誤的信息,導致經過訓練的人工智能因失靈而無法檢測到圖像。在技術上,Nightshade之類的工具可以通過改變數字圖像中的像素,使其在人工智能的訓練下看起來完全不同。而這種改變,從人眼的角度看來,仍然與原始的圖像基本一致。
舉例來說,如果您將一張毒化了的汽車圖片上傳到互聯網上。在我們人類看來,它的外觀并未發生變化。然而,如果人工智能試圖通過觀察互聯網上的這張汽車圖片,以訓練自己識別汽車的能力的話,那么它可能識別到的是完全不同種類的物品。
此外,在人工智能的訓練數據過程中,鑒于規模效應,如果有足夠多的偽造或毒化了的圖像樣本,那么就會影響人工智能的理解準確度,進而折損其根據給定提示,生成準確圖像的能力。
雖然生成式人工智能的技術仍在突飛猛進地發展,但是就目前而言,作為模型訓練基礎的數據,一旦發生了逃過人眼可見的錯誤,就會潛移默化地損害模型后續的迭代。這樣就起到了我們保護原創數字作品的效果。也就是說,據此,那些不想將其圖像用于人工智能數據集的數字創作者,可以有效地保護自己的圖像作品,不會在未經許可的情況下,被導入到生成式人工智能中。
目前,已有一些平臺開始為創作者提供此類可“不將作品納入人工智能訓練數據集”的選項。當然,對于人工智能模型訓練者而言,他們也需要對此引起足夠的重視。
與Glaze等其他數字藝術品保護工具相比,Nightshade的實現方式是截然不同的。Glaze可以防止人工智能算法模仿特定的圖像風格,而Nightshade則能夠從人工智能的視角改變圖像的外觀。當然,這兩款工具均由芝加哥大學計算機科學教授Ben Zhao開發。
如何使用Nightshade
雖然該工具的創建者建議用戶將Nightshade與Glaze一起使用,但是它其實也可以作為一個獨立的工具,來保護用戶的作品??傮w而言,使用該工具并不復雜,您可以僅通過幾個步驟,僅使用Nightshade來保護自己的圖像作品。不過,在開始之前,您需要牢記如下三件事:
- Nightshade僅適用于Windows和MacOS,而對于GPU的支持比較有限,且要求至少擁有4GB VRAM。目前它并不支持那些非英偉達的GPU和英特爾Mac。幸好Nightshade團隊提供了支持Nvidia GPU的列表鏈接-- https://developer.nvidia.com/cuda-gpus(您可能會注意到:GTX和RTX GPU就位于“CUDA支持的GeForce和TITAN產品”部分)。此外,您也可以在CPU上運行Nightshade,但是其性能會有所降低。
- 如果您使用的是GTX 1660、1650或1550,那么PyTorch庫中的一個bug會導致您無法正常啟動或使用Nightshade。Nightshade背后的團隊可能會在未來通過從PyTorch遷移到Tensorflow的方式,來修復該問題,不過目前尚無較好的解決方案。而且,該問題還延伸到了此類顯卡的Ti變體上。在測試中,我雖然在Windows 11電腦上為其提供了管理員訪問權限,但是仍需等待了幾分鐘才能夠打開該程序。希望您的情況會有所不同。
- 如果您的作品上有很多實體形狀或背景,那么您可能會遇到一些偽影(artifact)問題。這可以通過降低“毒化”強度來解決。
您需要執行如下步驟,來具體使用Nightshade對圖像實現保護。請記住,本指南雖然使用的是Windows版本,但它同樣適用于macOS版本。
- 從Nightshade下載頁面處下載其Windows或macOS版本。
- 由于Nightshade是以存檔文件夾的形式被下載到本地的,因此無需額外安裝。在下載完成后,您只要解壓其ZIP文件夾,并雙擊運行Nightshade.exe即可。
- 如下圖所示,在彈出的界面上,請點擊左上角的“選擇”按鈕,選擇要保護的圖像。注意,您可以同時選擇多個圖像進行批處理。
- 根據自己的喜好,您可以通過滑塊來調整對圖像進行操作的強度(Intensity)和渲染質量(Render Quality)。數值越高,毒化效果越強,但是也會在輸出圖像中引入偽影。
- 接著,請單擊“輸出”部分下的“另存為”按鈕,為輸出文件選擇目的地。
- 最后,請點擊底部的“運行Nightshade”按鈕,以運行程序并完成對圖像的毒化。
同時,您也可以選擇“毒(poison)”標簽。如果標簽沒有被人為選擇的話,Nightshade會自動檢測并推薦一個單詞標簽。當然,如果標簽不正確或過于籠統的話,您也可以手動更改。請記住,只有在Nightshade處理單張圖片時,才可以使用此設置。
如果一切順利,您將會得到一幅在人眼看來與原始圖像完全相同,但是被人工智能算法識別為與原作截然不同的圖像。這就意味著您的藝術作品已受到了保護,可免遭人工智能生成器的影響。
譯者介紹
陳峻(Julian Chen),51CTO社區編輯,具有十多年的IT項目實施經驗,善于對內外部資源與風險實施管控,專注傳播網絡與信息安全知識與經驗。
原文標題:How to Use Nightshade to Protect Your Artwork From Generative AI