圖像識別AI遇上對抗性圖像變“瞎子”,準確率猛降90%
在視覺方面,AI和人類的差距有多大?來自UC Berkeley等高校的研究人員創(chuàng)建了一個包含7500個“自然對抗實例”的數(shù)據(jù)集,在測試了許多機器視覺系統(tǒng)后,發(fā)現(xiàn)它們的準確度下降了90%!在某些情況下,軟件只能識別2%-3%的圖像。這樣的AI若用在自動駕駛汽車上,后果不敢想象!
近幾年來,計算機視覺有了很大的改善,但仍然有可能犯嚴重的錯誤。犯錯如此之多,以至于有一個研究領域致力于研究AI經(jīng)常誤認的圖片,稱為“對抗性圖像”。可以把它們看作計算機的光學錯覺,當你看到樹上有一只貓時,人工智能看到了一只松鼠。

AI把爬上樹的貓誤認為松鼠
研究這些圖像是很有必要的。當我們把機器視覺系統(tǒng)放在AI安全攝像頭和自動駕駛汽車等新技術的核心位置時,我們相信計算機和我們看到的世界是一樣的。而對抗性圖像證明并非如此。
對抗性圖像利用機器學習系統(tǒng)中的弱點
但是,盡管這個領域的很多關注點都集中在那些專門設計用來愚弄AI的圖片上(比如谷歌的算法把3D打印的烏龜誤認為是一把槍),但這些迷惑性圖像也會自然的出現(xiàn)。這類圖像更令人擔憂,因為它表明,即便不是我們特意制作的,視覺系統(tǒng)也會犯錯。
為了證明這一點,來自加州大學伯克利分校、華盛頓大學和芝加哥大學的一組研究人員創(chuàng)建了一個包含7500個“自然對抗實例”的數(shù)據(jù)集,他們在這些數(shù)據(jù)上測試了許多機器視覺系統(tǒng),發(fā)現(xiàn)它們的準確度下降了90%,在某些情況下,軟件只能識別2%-3%的圖像。
下面就是一些“自然對抗實例”數(shù)據(jù)集的例子:
AI眼中是“沉船”,其實是蟲子爬在枯葉上

AI眼中是“火炬”

AI眼中是“瓢蟲”

AI眼中是“日晷”

AI眼中是“棒球運動員”
這些數(shù)據(jù)有望幫助培養(yǎng)更強大的視覺系統(tǒng)
在論文中,研究人員稱這些數(shù)據(jù)有望幫助培養(yǎng)更強大的視覺系統(tǒng)。他們解釋說,這些圖像利用了“深層缺陷”,這些缺陷源于該軟件“過度依賴顏色,紋理和背景線索”來識別它所看到的東西。
例如,在下面的圖像中,AI錯誤地將左側的圖片當作釘子,這可能是因為圖片的木紋背景。在右邊的圖像中,它們只注意到蜂鳥飼養(yǎng)器,但卻錯過了沒有真正的蜂鳥存在的事實。

下面的四張蜻蜓照片,AI在顏色和紋理上進行分析后,從左到右依次會識別為臭鼬、香蕉、海獅和手套。我們從每張圖片中都可以看出AI為什么會犯錯誤。

AI系統(tǒng)會犯這些錯誤并不是新聞了。多年來,研究人員一直警告說,利用深度學習創(chuàng)建的視覺系統(tǒng)是“淺薄”和“脆弱”的,它們不會像人一樣靈活地理解世界上的一些幾乎相同的細微差別。
這些AI系統(tǒng)在成千上萬的示例圖像上進行了訓練,但我們通常不知道圖片中的哪些確切元素是AI用于做出判斷的。
一些研究表明,考慮到整體形狀和內(nèi)容,算法不是從整體上看圖像,而是專注于特定的紋理和細節(jié)。本次數(shù)據(jù)集中給出的結果似乎支持這種解釋,例如,在明亮的表面上顯示清晰陰影的圖片,會被錯誤地標識為日晷。
AI視覺系統(tǒng)真的沒救了?
但這是否意味著這些機器視覺系統(tǒng)沒得救了?完全不是。一般這些系統(tǒng)所犯的錯誤都是小錯,比如將排水蓋識別為沙井,將貨車誤認為豪華轎車等。
雖然研究人員說這些“自然對抗性的例子”會騙過各種各樣的視覺系統(tǒng),但這并不意味著可以騙過所有系統(tǒng)。許多機器視覺系統(tǒng)非常專業(yè),比如用于識別醫(yī)學掃描圖像中的疾病的那些專門系統(tǒng)。雖然這些系統(tǒng)有著自己的缺點,可能無法理解這個世界和人類,但這并不影響它們發(fā)現(xiàn)并診斷癌癥。
機器視覺系統(tǒng)有時可能會很快而且很臟,但通常都會產(chǎn)生結果。這樣的研究暴露了機器成像研究中的盲點和空白,我們下一步的任務就是如何填補這些盲點了。
論文地址:
https://arxiv.org/pdf/1907.07174.pdf
代碼和數(shù)據(jù)集:
https://github.com/hendrycks/natural-adv-examples