你的照片被多少面部識別系統「偷偷」用過?是時候用工具查一查了
當科技公司開發出「蠶食個人隱私」的面部識別系統的時候,他們大概率已經得到了您意想不到的幫助:你的臉——
公司、大學和政府實驗室使用了數百萬張從五花八門的網上資源中收集來的圖像,來開發這項技術。
而現在,國外的研究人員開發了一項技術:「Exposing.AI 」, 這項技術可以幫助人們在這些圖像中搜索他們的舊照片。
這款工具可以匹配Flickr在線照片共享服務中的圖像,為查找各種AI技術(從面部識別到聊天機器人)所使用的大量數據提供了窗口。
「人們需要知道,他們最私密的照片很可能被利用了」,隱私和民權組織監視技術監督項目的技術總監利茲·奧沙利文(Liz O’sullivan)如是說
她與在柏林的研究員、藝術家亞當·哈維(Adam Harvey)一起合作,也參與了Exposing.AI項目,
蜜月照被國家級監控系統所用,這位導演感到了「害怕」
人工智能系統不會魔法般的變得聰明——它們是通過精確定位人類生成的數據模式來自我學習的。技術是一直在進步和發展的,然而,它們卻學到了人類對女性和少數族裔的偏見。
大家可能并不知道,自己其實一直在默默為AI的發展做著貢獻。
對于一些人來說,這是一件很令人感到新奇的事,而對于另外一些人,就非常令人毛骨悚然了。
關鍵是,在國外,這可能是違法的——
2008年,伊利諾斯州通過了一項名為《生物特征信息隱私法》(Biometric Information Privacy Act)的法律,條文中要求,如果在未經居民同意的情況下使用他們的面部掃描,將會受到經濟處罰。
2006年,來自不列顛哥倫比亞省維多利亞州的紀錄片導演布雷特•蓋勒(Brett Gaylor)將他的蜜月照片上傳到當時很受歡迎的Flickr網站上:
經過15年后,使用哈維提供的早期版本的Exposing.AI,他發現, 多年來,Flickr被許多公司買賣,現在屬于照片共享服務公司SmugMug,該公司允許用戶在知識共享許可(Creative Commons license)下分享他們的照片。數百張他的蜜月旅行的照片,已經進入到了多個數據集——這些數據集很可能被用于訓練世界各地的面部識別系統。
多年來,Flickr被許多公司買賣,現在屬于照片共享服務公司SmugMug,該公司允許用戶在知識共享許可(Creative Commons license)下分享他們的照片。
這種許可在互聯網網站上很常見,意味著其他人可以在一定的限制下使用這些照片(盡管這些限制可能被忽略了)。
2014年,當時擁有Flickr的雅虎(Yahoo)在一個數據集中,為了幫助計算機視覺方面的工作,使用了許多這樣的照片。
蓋勒好奇,自己的照片究竟是如何被到處傳來傳去的。接著,他就被告知,這些照片可能被美國和其他國家的監控系統所使用。
「我的好奇變成了恐懼」,他說。
是的,一個美國人的蜜月照片,竟然被用來建立國家級別的監視系統,實在是令人意外。
非商業用途MegaFace被各種公司普遍使用,下線也無法解決問題
幾年前,頂尖大學和科技公司的人工智能研究人員,開始從各種渠道收集照片,這些渠道包括照片分享服務、社交網絡、OkCupid等約會網站,甚至還包含安裝在大學里的相機。收集之后,他們向其他組織分享了這些照片。
這對于研究人員來說,是正常現象。他們都需要把數據輸入新的人工智能系統,所以他們就分享了所有的數據,但這是合法的。
MegaFace數據集就是一個例子——這是華盛頓大學的教授們在2015年創建的一個數據集。
他們在數據源沒有知情且同意的情況下,就把他們的照片放進了龐大的照片庫中。
這些教授將圖片發布到互聯網上,以便其他人可以下載。
根據《紐約時報》的公開記錄請求,世界各地的公司和政府機構已經下載了超過6000次MegaFace。其中包括美國國防承包商諾斯羅普·格魯曼公司、中央情報局的投資部門In-Q-Tel,當然還有中國的社交媒體及公司等。
研究人員創建MegaFace的起初目的,是為了將其用于一項旨在促進面部識別系統發展的學術競賽,并不是為商業用途準備的。
然而事實是,但只有一小部分公開下載了MegaFace的用戶參加了這場比賽。
「我們不適合討論第三方項目」,華盛頓大學發言人維克托·巴爾塔(Victor Balta)說,「MegaFace已經“退役”,我們也不再分發MegaFace的數據了」
今年5月,華盛頓大學(University of Washington)將MegaFace下線。然而。這些數據的副本可能出現在任何地方,并繼續為新的研究提供素材。
限制之下,隱私數據濫用問題何時可解?
奧沙利文和哈維花了數年時間,試圖開發一個可以揭露所有這些數據使用情況的工具,實際的過程比他們預料的要困難。
他們想要使用某人的照片,來立即告訴那個人ta的臉被包含在各種數據集的次數。
但他們擔心,這種工具可能會被其他組織用在不好的地方。
「潛在的危害似乎很大」,奧沙利文說。
值得一提的是,奧沙利文還是幫助企業管理AI技術使用的紐約公司Responsible.AI的副總裁。
最后,他們被迫限制了人們搜索該工具的方式以及搜索提供的結果。結果是,這個工具并不像他們希望的那樣有效。
Exposing.AI本身并不使用面部識別技術。只有當你提供了可以在線指向該照片的方式——比如一個互聯網地址,它才能實現照片的精確定位。
此外,人們只能搜索發布在Flickr上的照片:他們需要Flickr的用戶名、標簽或網絡地址來識別這些照片。
研究人員表示,這一舉措是為了加強安全和隱私保護能力。
雖然限制了該工具的用途,但它的效果仍然讓人大開眼界:
Flickr上的圖片構成了大量的面部識別數據集,這些數據集已經在互聯網上廣泛流傳,其中就包括MegaFace。
使用Exposing.AI 找到與自己有聯系的照片并不難:只需要在舊郵件中搜索Flickr鏈接,就能找到被用于MegaFace和其他面部識別數據集的照片。
通過這個工具,蓋勒對他所發現的情況感到特別不安,因為他曾經認為。互聯網上的信息自由流動是一件積極的事情,而他使用Flickr,是因為其他人使用他照片的權利是受到知識共享許可限制的。
「我現在正經歷著這些后果」,他說。
他的希望——也是奧沙利文女士和哈維先生的希望——是公司和政府會制定新的規范、政策和法律,來防止個人數據被大量收集。
此外,蓋勒正在制作一部記載他的蜜月照片漫長、曲折、令人不安的「流傳歷程」的紀錄片,來揭示這個私人數據被濫用的問題。
參考鏈接:
https://www.nytimes.com/2021/01/31/technology/facial-recognition-photo-tool.html?referringSource=articleShare