以假亂真的“人造臉”,能騙過面部識別嗎?
如果你過去幾年間曾在網(wǎng)上發(fā)過自己的照片, Clearview人工智能很有可能已將這圖儲存下來,添加到該公司龐大的容納超過31億張圖片的面部識別數(shù)據(jù)庫中。《紐約時報》稱,Clearview可以“終結(jié)我們的所謂隱私”。1月份時,筆者拿到了自己的Clearview 人工智能配置文件,這讓我為之一怔。
Clearview面臨著許多法律上的挑戰(zhàn)。美國公民自由聯(lián)盟(AmericanCivil Liberties Union)曾引用筆者的一篇文章對該公司發(fā)起集體訴訟,該訴訟具有里程碑意義。但即使立法者限制了Clearview,阻止線上面部識別就像打地鼠:總有另一個公司會取代它的位置。
隨著線上面部識別的普及,消費者如何才能讓自己的面部遠離大規(guī)模監(jiān)控數(shù)據(jù)庫收集呢?合成內(nèi)容創(chuàng)業(yè)公司GeneratedMedia提出一個解決方案:把臉換成一個由神經(jīng)網(wǎng)絡(luò)創(chuàng)建的高科技假臉。假臉會讓人們知道你的長相,但真正的臉是不顯示的。
這家公司專門制作人工面部。他們使用了一種被稱為收集對抗網(wǎng)絡(luò)(GANs)的技術(shù),這類技術(shù)讓兩個神經(jīng)網(wǎng)絡(luò)相互對立。以GeneratedMedia為例,隨著兩種網(wǎng)絡(luò)相互競爭,其中一個網(wǎng)絡(luò)(生成網(wǎng)絡(luò))在生成人臉方面做得越來越好。GANs的技術(shù)非常先進,足以制作出以假亂真的臉。
該公司最近在《紐約時報》上發(fā)表了一篇關(guān)于生成人工面孔背后技術(shù)的文章,引起了巨大轟動。
GANs也可以大規(guī)模地生成人工面孔。Generated Media成立不到一年,已經(jīng)生成了超過200萬張人工面孔。這些面孔代表了各種年齡和外貌的人。它們看起來完全真實,但描繪的人實際上并不存在,也從未存在過。GeneratedMedia允許這些圖像以儲備照片的形式存在網(wǎng)站上,并將它們作為訓(xùn)練數(shù)據(jù)以減少其他人工智能系統(tǒng)中的偏差。
運用大量面部圖像數(shù)據(jù),Generated Media正將目光轉(zhuǎn)向消費者。通過一款今天剛發(fā)布的工具Anonymizer,用戶可以在上傳面部真實圖像后獲得許多以假亂真的臉。用戶可以在社交媒體上,或其他任何需要在公共互聯(lián)網(wǎng)上發(fā)布照片的地方,使用人工面孔而非真臉。這些假照片供個人免費使用,還可以選擇使用透明背景。
GeneratedMedia稱這些人工面部看起來同真人非常相似,所以可信度高。但由于這并非用戶的真臉,如果Clearview或其他面部識別公司將用戶的人工面部添加到數(shù)據(jù)庫中,這些公司將無法通過假臉來找到真正的用戶。
GeneratedMedia表示,用戶“至少每天”都可以將自己的照片換成新的假照片,以享受真臉識別所不具備的隱私性。
在接受采訪時,GeneratedMedia的策略主管Tyler Lastovich稱,他“私下使用領(lǐng)英時看到有人用了一張合成圖片作為頭像”,公司也發(fā)現(xiàn)“有更多的圖片用在推特的個人簡介里”之后,該公司設(shè)計了Anonymizer。還有一些人試圖創(chuàng)造基于人工智能工具改變抗議者和活動人士的頭像,從而掩蓋他們在網(wǎng)上的身份。
但是Clearview告訴《紐約時報》,這些工具無法欺騙它的系統(tǒng)。一張完全偽造的照片,比如用GeneratedMedia生成的照片,可能是一個更安全的解決方案。
筆者上傳了一張自己在加州圣拉蒙一家高檔披薩店拍攝的照片,以此測試Anonymizer。
Anonymizer展示了約20個相似圖像,還可以選擇查看更多。筆者滾動屏幕,選擇了一張最相似的假臉。
圖源:Generated Media
現(xiàn)在點對點比較。這張假臉的背景是透明的,所以可以把它疊加在一張照片上,這張照片攝于在一家漂亮的披薩店,而真實照片就是在這家店拍的。
看起來像嗎?不,筆者不會把發(fā)型梳成這樣。但這兩幅圖太相似了,親密的朋友和家人以外的人可能會把假臉誤認(rèn)為是真人——尤其在推特這樣的社交媒體網(wǎng)站上使用假照片時,那里的個人資料照片只有49x49像素。
電腦也可能會犯同樣的錯誤。為了測試真人和AI照片看起來有多相似,筆者用一款廣泛運用的面部比較API,由面部識別軟件face ++提供,對兩幅圖進行了比較。Face++得出結(jié)論是:“正常概率”下真人同和照片相匹配,并且估計有64%的幾率是同一個人。
這個數(shù)字不完美,但對于電腦創(chuàng)造出來的人工面部來說,已經(jīng)相當(dāng)不錯。而且效果會隨著時間的推移而改善。Anonymizer的工作原理是分析用戶的臉,然后從Generated Media現(xiàn)有的數(shù)據(jù)庫中找到最接近的匹配。隨著公司制造出更多的人工面孔,找到高可信度匹配的幾率也會增加。
在這次實驗中,筆者發(fā)現(xiàn)面部越容易辨認(rèn),越難偽造人工面孔。為了測試這一點,筆者上傳了一張?zhí)萍{德·特朗普的照片,結(jié)果和他實際的樣子完全不一樣。不管怎樣,在過去的四年里,看特朗普的臉肯定比自己的臉還要多。
把一張非常熟悉的真臉(例如特朗普的臉)和一張假臉進行比較時,人工面孔的漏洞就非常明顯了。對于不太熟悉的面孔,它們更容易被忽視,而且人工的看起來還更有說服力。
這展現(xiàn)了該系統(tǒng)的另一運用場景。Anonymizer的對抗程序不一定能創(chuàng)造出用戶足以以假亂真的臉。相反,該系統(tǒng)可能最適合這樣的情況:用戶想讓從未見過他的人知道他長什么樣子,卻不泄露實際長相。
Generated Media表示約會軟件就是一個很好的例子。假如用戶創(chuàng)建一個在線約會檔案,可以從Anonymizer中獲取一個假的圖像,用它來代替真實面孔。照片能清晰展示出外貌——但如果遇到了某個特別的人并想展露真實面孔,他們最好不會感到很尷尬。
但除非用戶選擇揭露真實的面部,人工面部能防止那些經(jīng)常約會網(wǎng)站跟蹤狂獲取真實外表,從而把用戶當(dāng)成目標(biāo)。
在一個類似的案例中,該公司與調(diào)查記者合作,使用類似工具為希望保持匿名的情報人員創(chuàng)建人工面孔。人工面孔可以讓記者(和讀者)了解情報人員的年齡、膚色、頭發(fā)長度及外貌的其他關(guān)鍵因素,同時確保他們的真實身份得到保護。
Clearview AI從新聞文章和社交媒體網(wǎng)站下載了數(shù)百萬張圖片,所以在敏感文章中使用人工面部是防止Clearview搜索情報人員的臉并將其鏈接回敏感文章的一個好方法。
如果用戶打算發(fā)布一些敏感話題,也可以考慮采取類似的方法。即用假臉來創(chuàng)建一個獨立的社交媒體賬戶。這樣的話,敏感的內(nèi)容就不會鏈接到真實面孔上,也不會被那些可能在Clearview這樣的平臺上搜索面孔的人看到。
在上傳一張人工面孔之前,一定要檢查社交網(wǎng)絡(luò)的服務(wù)條款:例如Twitter不允許出于欺騙目的使用假臉,但若是用假臉來保護自身言論自由,多數(shù)情況不會有事。
然而,并非所有的隱私倡導(dǎo)者都相信Anonymizer等系統(tǒng)行之有效。哈佛大學(xué)肯尼迪學(xué)院肖倫斯坦中心的研究員、激進主義克里斯·吉利亞德(ChrisGilliard)對我說:“對于任何假臉保護匿名的說法,我并不十分肯定。”
數(shù)據(jù)共享遠遠超出公共照片發(fā)布到互聯(lián)網(wǎng)上的范疇。他告訴我,“一部分是因為缺乏監(jiān)管,不論是在社交媒體上還是從車管所收集信息,人們對數(shù)據(jù)的疏忽都能致使許多數(shù)字工具獲得人們的照片。”他認(rèn)為這是社會而非技術(shù)問題,并不是什么能通過“技術(shù)”解決的問題。
假臉也有風(fēng)險。據(jù)《紐約時報》報道,這些假臉可以“被用作面具,例如戴著迷人面孔試圖潛入情報機構(gòu)的間諜、隱藏在虛假資料、照片等背后的右翼宣傳者、帶著友善表情尋找目標(biāo)的線上騷擾者。”今年早些時候,有人用假臉來分享一家假情報公司關(guān)于亨特·拜登的事。
在別有用心的用戶手中,Anonymizer可以創(chuàng)造出這些虛假信息。但對于那些心懷叵測的想要做人工面孔的人來說,可能有更簡單的方法。網(wǎng)站ThisPersonDoesNotExist.com能使用GANs技術(shù)在瀏覽器中生成假臉,類似Generated Media技術(shù)而不需要上傳圖片。
而且,由于面部生成GANs背后的代碼可被廣泛使用,大多數(shù)心思復(fù)雜的罪犯可能會建立他們自己的面部生成系統(tǒng),而不是依賴那些可以追溯到某個特定公司的面部,因為有可能找到他們。GeneratedMedia表示,用戶不能“使用圖片冒充他人或進行非法活動”。
如果想在網(wǎng)上發(fā)布自己的個人信息而不用擔(dān)心被監(jiān)控,或者只是想測試一下聯(lián)系人對自己的了解程度,可以通過Anonymizer把推特頭像換成假臉,看看有沒有人注意到。至少,看到一個自己的虛擬克隆臉很有意思。
如果在網(wǎng)上發(fā)布敏感內(nèi)容,擔(dān)心會成為跟蹤的目標(biāo),或者只是想掌控那些知道真實面目的人,Anonymizer就不只是一個玩具,而是一個潛在的強大工具。
本文轉(zhuǎn)載自微信公眾號「讀芯術(shù)」,可以通過以下二維碼關(guān)注。轉(zhuǎn)載本文請聯(lián)系讀芯術(shù)公眾號。