成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一文詳解深度神經網絡中的對抗樣本與學習

人工智能 深度學習
最近大半年,人工智能領域成為科技領域提到的最多的名詞之一。在kdnuggets此前發布的文章 (Deep Learning’s Deep Flaws)’s Deep Flaws 中,深度學習大神Yoshua Bengio和他的博士生、Google科學家Ian Goodfellow在評論中與作者就深度學習對抗樣本(Adversarial Examples)展開了熱烈的討論,kdnuggets編輯邀請Ian Goodfellow撰文詳解他的觀點以及他在這方面的工作。那么什么是對抗樣本,對抗樣本又是如何生成的呢?

概述

最近大半年,人工智能領域成為科技領域提到的最多的名詞之一。在kdnuggets此前發布的文章 (Deep Learning’s Deep Flaws)’s Deep Flaws 中,深度學習大神Yoshua Bengio和他的博士生、Google科學家Ian Goodfellow在評論中與作者就深度學習對抗樣本(Adversarial Examples)展開了熱烈的討論,kdnuggets編輯邀請Ian Goodfellow撰文詳解他的觀點以及他在這方面的工作。那么什么是對抗樣本,對抗樣本又是如何生成的呢?

對抗樣本

對抗樣本(Adversarial Examples)的概念最早是Christian Szegedy 等人在ICLR2014發表的論文中提出來的,即在數據集中通過故意添加細微的干擾所形成輸入樣本,受干擾之后的輸入導致模型以高置信度給出了一個錯誤的輸出。

在他們的論文中,他們發現包括卷積神經網絡(Convolutional Neural Network, CNN)在內的深度學習模型對于對抗樣本都具有極高的脆弱性。他們的研究提到,很多情況下,在訓練集的不同子集上訓練得到的具有不同結構的模型都會對相同的對抗樣本實現誤分,這意味著對抗樣本成為了訓練算法的一個盲點。二將這一矛頭直指深度學習,似乎要為深度學習熱潮降一降溫。Anh Nguyen等人在CVPR2015上發表的論文中,面對一些人類完全無法識別的樣本(論文中稱為 Fooling Examples),深度學習模型居然會以高置信度將它們進行分類,例如將噪聲識別為獅子。

對于上面的漏洞,研究提出,一方面促使人們更深入思考機器和人的視覺的真正差異所在,一方面,加上深度模型本身具有的不可解釋性缺陷,也讓一些人開始認為深度學習不是deep learning, 而是deep flaw.對深度學習來說,這多少是不公平的指責,因為 kdnuggets上的一篇文章(Deep Learning’s Deep Flaws)指出,深度學習對于對抗樣本的脆弱性并不是深度學習所獨有的,事實上,這在很多機器學習模型中都普遍存在(Box 大人不就說嗎,all models are wrong, but some are useful),而深度學習反而可能是目前為止對對抗訓練最有抵抗性的技術。如下圖,原始圖像以60%的置信度判斷為“熊貓”,但是加入了微小的干擾,在人眼完全看不出差別的情況下卻以99%的執行度歸為了長臂猿。

一文詳解深度神經網絡中的對抗樣本與學習

對抗樣本的根本問題

那么,導致深度模型對反抗樣本力不從心的真實原因有哪些呢?一般我們知道,可能是模型過擬合導致泛化能力不夠,泛化能力不夠可能是由于模型均化不足或者正則不足,然而,通過更多模型均化和加入更多噪聲訓練等方式來應對對抗樣本的企圖均告失敗。外一個猜測是模型的高度非線性,深度模型動輒千百萬的參數個數確實讓人有點不太舒服,但 Ian Goodfellow 在論文 explaining and harnessing adversarial examples 中,通過在一個線性模型中加入對抗干擾,發現只要線性模型的輸入擁有足夠的維度(事實上大部分情況下,模型輸入的維度都比較大,因為維度過小的輸入會導致模型的準確率過低,即欠擬合),線性模型也對對抗樣本表現出明顯的脆弱性,這駁斥了關于對抗樣本是因為模型的高度非線性的解釋。

事實上,該文指出,高維空間中的線性性就足以造成對抗樣本,深度模型對對抗樣本的無力最主要的還是由于其線性部分的存在。

如下圖,展示了線性設計造成的抵抗對抗擾動的模型之間的關系。

一文詳解深度神經網絡中的對抗樣本與學習

對抗樣本的利用

針對上面的問題,毫無疑問,對抗樣本帶來了對深度學習的質疑,但其實這也提供了一個修正深度模型的機會,因為我們可以反過來利用對抗樣本來提高模型的抗干擾能力,因此有了對抗訓練(adversarial training) 的概念。

隨著對對抗樣本研究的深入,可以利用對抗樣本生成對抗網絡(GANs)。在 GANs 中,包含一個生成模型G和一個判別模型D,D要判別樣本是來自G還是真實數據集,而G的目標是生成能夠騙過D的對抗樣本,可以將G看做假幣生產者,而D就是警察,通過G和D的不斷交手,彼此的技能都會逐漸提高,最終使得G生產的假幣能夠以假亂真。

對抗樣本的防御

Papernot等人表明蒸餾技術(使用概率分布作為目標訓練)也可以用于大大降低網絡對抗擾動的脆弱性。對于MNIST數據集訓練的DNN,防御性蒸餾將對抗樣本的成功率從95.89%降低到0.45%!針對CIFAR數據集而言,成功率由87.89%降至5.11%。事實上,防御性蒸餾可以降低DNN對輸入擾動的靈敏度。

以下是MNIST和CIFAR的一些示例,顯示正當樣本和對抗樣本:

一文詳解深度神經網絡中的對抗樣本與學習

下面介紹防御性蒸餾如何工作以及其原理??紤]一般的對抗框架,首先搞清楚工作方向是圍繞給定的輸入樣本,然后使用這些信息選擇輸入維度之間的擾動。

一文詳解深度神經網絡中的對抗樣本與學習

如果梯度方向陡峭,就會對小擾動產生很大的影響。為了防止這種擾動,必須通過網絡更好地泛化訓練數據集以外的樣本來平滑訓練過程中學到的模型。DNN對對抗樣本的“魯棒性”與給定樣本鄰域相一致地分類輸入相關。

一文詳解深度神經網絡中的對抗樣本與學習

為了實現這種平滑,蒸餾防御首先按照正常的方式訓練分類網絡,然后用從***個模型學到的概率向量訓練另外一個完全相同架構的新模型。

 

一文詳解深度神經網絡中的對抗樣本與學習

下圖展示蒸餾溫度如何影響模型對抗樣本的防御能力。直觀上,溫度越高防御越好。

一文詳解深度神經網絡中的對抗樣本與學習

防御性蒸餾僅適用于基于能量概率分布的DNN模型,因此建立通用對抗樣本強大的機器學習模型的重要一步。

責任編輯:未麗燕 來源: xiangzhihong8的專欄
相關推薦

2019-11-06 17:00:51

深度學習神經網絡人工智能

2019-11-19 08:00:00

神經網絡AI人工智能

2018-07-29 06:46:07

神經網絡RNN循環神經網絡

2019-09-18 19:20:28

2023-09-17 23:09:24

Transforme深度學習

2017-04-17 13:10:09

神經網絡人工智能網絡

2020-12-08 20:20:15

神經網絡深度學習機器學習

2025-03-31 08:50:00

模型量化神經網絡AI

2017-07-06 17:03:45

BP算法Python神經網絡

2025-04-27 09:59:38

深度學習AI人工智能

2018-04-08 11:20:43

深度學習

2017-11-29 13:55:55

神經網絡循環神經網絡RNN

2020-08-14 10:20:49

神經網絡人工智能池化層

2017-10-24 11:19:16

深度學習機器學習數據

2018-08-08 16:08:45

深度學習機器學習NLP

2019-03-26 19:00:02

神經網絡AI人工智能

2023-10-31 10:33:35

對抗網絡人工智能

2017-07-10 09:37:01

循環神經網絡深度學習RNN

2017-11-20 05:08:16

深度學習激活函數神經網絡

2023-04-19 10:17:35

機器學習深度學習
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一区欧美 | 日韩精品无码一区二区三区 | 国产精品99久久久久久www | 一区二区三区精品在线视频 | 国产一区二区三区免费观看视频 | 国产精品视频专区 | 97avcc| 久久高清精品 | 伊人婷婷 | 日韩欧美在线免费 | 九色91视频 | 国产精品免费在线 | 一区二区三区视频在线观看 | 亚洲视频在线看 | 国产精品综合视频 | 国外成人在线视频网站 | 亚洲一区 | 欧美综合一区二区三区 | 国产精品久久久久久一区二区三区 | 国产精品久久久久久久久久 | 久久精品视频免费看 | 久久精品亚洲一区二区三区浴池 | 日韩精品免费一区 | 黑人巨大精品欧美一区二区免费 | 亚洲精品国产精品国自产在线 | 三级av在线 | 风间由美一区二区三区在线观看 | 99久久99| 天堂亚洲 | 久草成人| 影音先锋中文在线 | 欧美日韩国产精品一区二区 | 久久成人精品 | 日日操夜夜摸 | 久久首页 | 午夜理伦三级理论三级在线观看 | 国产精品1区 | 国产一区 在线视频 | 欧美性久久久 | 欧美一级二级三级视频 | 欧州一区 |