防不勝防:正經AI研究何以變成了計算機生成色情作品?
本文轉載自公眾號“讀芯術”(ID:AI_Discovery)。
十年前,一些最基本的人工智能算法(比如圖像識別)需要數據中心通常具備的那種計算能力才能使用。而如今,這些工具在智能手機上就可以使用,并且功能更強大、更精密。
像核能或火箭推進一樣,人工智能也被視為一種“兩用”技術,也就是說,它既能帶來好處,又能造成危害。
不久前,Vice報道了人工智能最新造成的一個危害案例:編碼人員正用性虐待圖像訓練算法制作色情作品。這篇報道詳細披露了這名匿名博士生是如何將未經雙方同意的圖像編譯為數據集,并結合現有算法生成自定義視頻的。
用人工智能生成色情作品的創作者將這些作品發布在Pornhub、OnlyFans等平臺上。他向Vice透露自己使用了StyleGAN2,一種由Nvidia構建的開源算法。如果你曾經在網上看到過極其逼真的假人臉(比如ThisPersonDoesNotExist.com網站),那么它們很有可能是由StyleGAN2生成的。
這項技術并不是一夜之間就出現的。從某些最早的現代圖像生成算法出現,到這種人工智能生成色情作品現象的發生,都是有跡可循的。
圖源:Getty Images
向生成對抗網絡(GAN)的飛躍
2014年,圖像生成算法的能力突飛猛進,生成對抗網絡(GAN)應運而生。這是一個名叫伊恩·古德費洛(Ian Goodfellow)的人工智能研究員在酒吧和別人爭論時所想到的,即讓算法之間相互競爭,從而產生最佳結果。
生成圖像需要“生成器”和“鑒別器”。生成器生成圖像,而鑒別器將根據其訓練時接觸到的真實圖像來判斷該圖像是真是假。鑒別器只會接受最真實的圖像,從而確保最終結果是人工智能生成圖像中的精品。
讓技術變得有用
古德費洛對生成對抗網絡的最初研究在行業基準測試中表現良好,但他創建的許多圖像看起來仍然像是讓人難以接受的一團亂麻(以抽象和非人性的方式來表達創建者的想法)。
2016年,其他研究人員已經開始試驗這項技術,并找到了制作逼真圖像的方法,盡管分辨率很低。當時,有一篇出色的論文描述了研究人員是如何生成逼真的臥室圖像的,以及初次嘗試生成人臉的過程。
這項研究再次表明,生成對抗網絡能夠以訓練時接觸到的數據為基礎進行調適。這種技術能夠生成逼真的臥室圖像,同樣也能生成逼真的人臉圖像,這意味著生成對抗網絡實際上能夠識別各種不同類型圖像中的圖案。
深度偽造變得越來越普及
以生成對抗網絡架構為基礎,目前有多種免費的開源方法來合成人臉。隨著亞馬遜云服務(AWS)和谷歌云(Google Cloud)這樣的云服務變得越來越容易訪問,訓練這些算法的能力也變得越來越容易獲得。
在人工智能研究領域中,最有名的是Nvidia團隊開發的StyleGAN。它于2018年12月發布,雖然它能夠生成不可思議的高質量假臉圖像,但這些圖像上仍然會出現奇怪的模糊畫面和數字偽像。之后不到一年的時間內,Nvidia團隊發布了StyleGAN2。
為防止形成這些模糊畫面和偽像,并提高圖像的保真度,該版本修復了算法的體系結構,這些算法能夠適應不同的領域。通過使用色情圖像(不僅僅在面部圖像上)訓練算法,該系統能夠生成一些它可能從未打算生成的東西。
通過DeepFaceLab和Wav2Lip等開源項目,生成對抗網絡也已經被用來專門從事深度偽造。想要使用這些服務確實很容易:從Wav2Lip項目的網站上可以了解到,如何用一行代碼實現視頻人物與任何音頻文件自動對上口型。
這些技術仍處在起步階段,但它們將變得更加精密、更有說服力。某些應用確實很有趣,但目前看來,這些算法更容易被某些別有用心之人利用去做一些壞事。如果不采取措施,深度偽造的危害可能超過其微不足道的娛樂價值。