成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

淺談人工神經(jīng)網(wǎng)絡(luò)與BP算法

原創(chuàng)
人工智能 深度學(xué)習(xí) 算法
如今,深度學(xué)習(xí)技術(shù),也叫機(jī)器學(xué)習(xí)技術(shù)日益火熱,運用深度學(xué)習(xí)技術(shù)的領(lǐng)域也愈來愈廣泛,這些領(lǐng)域包括圖像識別、語音識別、自然語言處理以及游戲、機(jī)器人之類的。并且隨著深度學(xué)習(xí)技術(shù)的完善與成熟,以后用到深度學(xué)習(xí)技術(shù)的方面還會更加廣泛。

[[338555]]

【51CTO.com原創(chuàng)稿件】

1 導(dǎo)讀

如今,深度學(xué)習(xí)技術(shù),也叫機(jī)器學(xué)習(xí)技術(shù)日益火熱,運用深度學(xué)習(xí)技術(shù)的領(lǐng)域也愈來愈廣泛,這些領(lǐng)域包括圖像識別、語音識別、自然語言處理以及游戲、機(jī)器人之類的。并且隨著深度學(xué)習(xí)技術(shù)的完善與成熟,以后用到深度學(xué)習(xí)技術(shù)的方面還會更加廣泛。對于這一塊的學(xué)習(xí),不僅需要具備一定的軟件知識,還得了解一些硬件的技術(shù)知識與理論方法。由于本人是電子信息專業(yè),在大學(xué)期間接觸了一過一些機(jī)器學(xué)習(xí)的知識,并且在畢業(yè)后順利進(jìn)入一家世界500強(qiáng)的互聯(lián)網(wǎng)公司從事人工智能研發(fā)中心工作,接觸了有關(guān)深度學(xué)習(xí)技術(shù)的軟件平臺與開發(fā)工具。因此,對于這一領(lǐng)域知識還是比較熟悉并且能掌握的。在這一篇文稿中,我會對深度學(xué)習(xí)這一方面進(jìn)行基本的闡述,并且在此基礎(chǔ)上進(jìn)行拓展,以至于在后面可以完成一個深度學(xué)習(xí)技術(shù)的平臺實踐。類似之前文稿中所說的推薦系統(tǒng)的實現(xiàn)一樣,深度學(xué)習(xí)技術(shù)完全可以作為推薦系統(tǒng)的“計算引擎”,來進(jìn)一步提高推薦效果。因此,學(xué)習(xí)深度學(xué)習(xí)技術(shù)知識對從事軟、硬件行業(yè)發(fā)展尤為重要。

2 深度學(xué)習(xí)技術(shù)現(xiàn)狀

在之前的從事人工智能研發(fā)工作中,雖然明白有關(guān)深度學(xué)習(xí)的技術(shù)的日益火熱程度,但是也深深感受到這一方面的不易,因為目前在這一領(lǐng)域,我國仍舊沒有取得突破性的進(jìn)展,我們也稱這一階段為人工智能或者機(jī)器學(xué)習(xí)的“瓶頸期”。對于人工智能領(lǐng)域的可解釋性、普及程度、無監(jiān)督學(xué)習(xí)等方面進(jìn)步并不明顯。盡管目前這一領(lǐng)域發(fā)展仍舊處在“瓶頸期”,也就所謂的“雷聲大,雨點小”的狀況,但對于這一領(lǐng)域的研究,任何一個國家都不應(yīng)該懈怠,只要渡過“瓶頸期”,那么人工智能這一領(lǐng)域?qū)崿F(xiàn)質(zhì)的飛越,也就會沖出瓶口,一瀉千里。當(dāng)然,作為軟件開發(fā)行業(yè)的我,也期待這一天的到來,即使需要投入很多科研人員的心血與時間。

3 深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)

3.1 深度學(xué)習(xí)

深度學(xué)習(xí),也叫機(jī)器學(xué)習(xí),它是通過實現(xiàn)一個能夠進(jìn)行自我學(xué)習(xí)的智能機(jī)器來替代人類完成一些復(fù)雜而繁瑣的工作,也叫人工智能。這個機(jī)器的學(xué)習(xí)模型也是仿照人的行為來模擬進(jìn)行,也就是在生活中,我們對于需要解決的新問題,我們都會通過依靠自己的歷史行為經(jīng)驗來對問題進(jìn)行整理歸納,從而發(fā)現(xiàn)這類問題的規(guī)律,最后運用這些規(guī)律來完成對未來的預(yù)測功能。同樣地,對于人工智能機(jī)器,它對于需要處理的新的數(shù)據(jù)(新的問題),依靠的也是自己的“經(jīng)驗”,即記錄的歷史數(shù)據(jù),來構(gòu)建模型(類似人尋找規(guī)律),繼而通過模型(規(guī)律)來預(yù)測未知的屬性或問題。這些過程完全就依賴機(jī)器本身的自我學(xué)習(xí)能力,模型遇到的新數(shù)據(jù)越多,歷史數(shù)據(jù)就越豐富,學(xué)習(xí)能力就越強(qiáng),也是一個良性的正反饋過程。如下圖所示:

3.2 神經(jīng)網(wǎng)絡(luò)

說到深度學(xué)習(xí)類似人的學(xué)習(xí),就不得不提到神經(jīng)網(wǎng)絡(luò)這個詞匯。我們都知道,人的學(xué)習(xí)能力主要依賴的是人的大腦,而大腦中用來傳輸信息的也就是神經(jīng)網(wǎng)絡(luò)了。所以在深度學(xué)習(xí)中,也是模仿運用人腦的神經(jīng)網(wǎng)絡(luò)運作機(jī)制,形成相對于的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。類比人腦神經(jīng)網(wǎng)絡(luò)的神經(jīng)元,在深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)模型的構(gòu)建也是依賴各個“神經(jīng)元”。如下圖所示就是一個模擬的“神經(jīng)元”:

在該“神經(jīng)元”中,輸入分別為X1、X2、X3和截距b為+1;輸出為函數(shù) ,為w為每個輸入量的權(quán)重,激活函數(shù)為f(x),所以 。在這一類的“神經(jīng)元”中,常用的激活函數(shù)有sigmoid(邏輯回歸函數(shù))和tanh(雙曲正切函數(shù)),如下所示:

     

3.3 感知器

在神經(jīng)網(wǎng)絡(luò)中最簡單的神經(jīng)單元也叫感知器,因為只有當(dāng)激活函數(shù)的返回值為兩個固定值時,就可以稱此時的神經(jīng)網(wǎng)絡(luò)為感知器,返回值可能為以下兩種情況:

因此感知器的返回值只有兩種情況,也只能解決二類線性可分的問題,適用于模式分類的應(yīng)用場景。

3.4 線性神經(jīng)網(wǎng)絡(luò)

除了最簡單的神經(jīng)網(wǎng)絡(luò)——感知器以外,線性神經(jīng)網(wǎng)絡(luò)也是一種簡單的神經(jīng)網(wǎng)絡(luò),它可以包含多個神經(jīng)元。對應(yīng)的激活函數(shù)是一個線性函數(shù),并且可以返回多個值。最常用的激活函數(shù)就是上面兩個函數(shù):sigmoid函數(shù)和tanh函數(shù)。線性神經(jīng)網(wǎng)絡(luò)也只適合運用于線性可分類的問題,但是運用的分類效果要比感知器好,并且可以進(jìn)行多種條件分類,不受限于二元分類情況。

3.5 淺層神經(jīng)網(wǎng)絡(luò)

在線性神經(jīng)網(wǎng)絡(luò)中添加少量的隱層就可以更進(jìn)一步,叫做淺層神經(jīng)網(wǎng)絡(luò),也叫作傳統(tǒng)神經(jīng)網(wǎng)絡(luò)。一般淺層神經(jīng)網(wǎng)絡(luò)只會有1到2個隱層。淺層神經(jīng)網(wǎng)絡(luò)如下圖所示:(layerL1為輸入層,layerL2為隱層)

3.6 深度神經(jīng)網(wǎng)絡(luò)

對應(yīng)淺層神經(jīng)網(wǎng)絡(luò)中的少量隱層,那么肯定就有對應(yīng)多量隱層的深度神經(jīng)網(wǎng)絡(luò)(DNN),對于深度神經(jīng)網(wǎng)絡(luò)也就是深度學(xué)習(xí)的基礎(chǔ),或者說深度學(xué)習(xí)技術(shù)也就是基于深度神經(jīng)網(wǎng)絡(luò)而來,是神經(jīng)網(wǎng)絡(luò)的一個發(fā)展。深度神經(jīng)網(wǎng)絡(luò)如下圖所示:

那么對于隱層來說,增加隱層得到的最終輸出效果會比線性神經(jīng)網(wǎng)絡(luò)要更準(zhǔn)確,更符合要求。但是,隱層越多,得到的效果就越好嗎?有個成語就可以說明這一點,那就是過猶不及。任何事物,一旦不加以控制,超出了它所容忍的限度的話,那可能就遠(yuǎn)遠(yuǎn)落后于之前的狀況了。隱層也是一樣,少量地增加隱層的確可以得到更好的輸出效果。但是不加限制的增加的話,那么對于最終的效果并不會產(chǎn)生太大的變化,無疑是畫蛇添足。這種情況也叫作神經(jīng)網(wǎng)絡(luò)的過擬合化。

4 一個問題——過擬合化?

4.1 隱層越多越好?

從理論上講,一個神經(jīng)元可以將數(shù)據(jù)集進(jìn)行二分化,當(dāng)隱層的神經(jīng)元個數(shù)足夠多的話,有隱層的神經(jīng)網(wǎng)絡(luò)可以逼近任何連續(xù)函數(shù)。盡管在網(wǎng)絡(luò)工程效果中,多隱層的神經(jīng)網(wǎng)絡(luò)要比單隱層的神經(jīng)網(wǎng)絡(luò)的效果好,可對于一些分類的數(shù)據(jù)集問題來講,三層的神經(jīng)網(wǎng)絡(luò)效果也的確優(yōu)于兩層的神經(jīng)網(wǎng)絡(luò),可是將隱層層次不斷增加到5層以上,對于最終的效果也就不會產(chǎn)生太大的變化,而且還使得神經(jīng)網(wǎng)絡(luò)變得過于復(fù)雜。提升隱層的層數(shù),也就提升了神經(jīng)元的個數(shù),使得神經(jīng)網(wǎng)絡(luò)就更為復(fù)雜,即使這種網(wǎng)絡(luò)的處理能力和空間表達(dá)能力更強(qiáng),但是對于某些簡單的數(shù)據(jù)集問題,例如分類問題就顯得大材小用了,從而有可能導(dǎo)致過擬合的問題。神經(jīng)網(wǎng)絡(luò)模型雖然在預(yù)測集上表現(xiàn)出一個較好的數(shù)據(jù)結(jié)果,而對于視頻/圖片識別等問題,神經(jīng)網(wǎng)絡(luò)就不太適合,這也是神經(jīng)網(wǎng)絡(luò)模型的一個局限性。

4.2 過擬合問題解決方案

那么對于神經(jīng)網(wǎng)絡(luò)過擬合問題,該怎么去解決呢?目前解決神經(jīng)網(wǎng)絡(luò)過擬合的方法主要有以下三種:

(1)交叉驗證:主要講數(shù)據(jù)集分為訓(xùn)練集、驗證集和測試集三個部分。其中把訓(xùn)練集作為子集訓(xùn)練出神經(jīng)網(wǎng)絡(luò)模型,通過驗證集對這個模型的預(yù)測效果進(jìn)行性能和指標(biāo)評估,符合預(yù)測效果后,才用最終的測試集作為輸入,得到最終預(yù)測效果;

(2)剪枝:就是對于每一次訓(xùn)練完子集的epoch結(jié)束后,將計算的指標(biāo)accuracy跟上一次的進(jìn)行比較,如果accuracy不再變化時,那么就停止訓(xùn)練;

(3)正則化:就是在目標(biāo)函數(shù)上加上一個參數(shù) ,使目標(biāo)函數(shù)變成含有 參數(shù)的函數(shù),最后用參數(shù) 來懲罰那些權(quán)重很大的向量,其中參數(shù) 就叫正則系數(shù),過程就叫做正則化處理。因此當(dāng) =0時,表示并沒有采用正則化處理來預(yù)防過擬合化。

5 反向傳播算法

目前對于激活函數(shù)已經(jīng)具備了,隱層也知道采取相應(yīng)的方法對過擬合化問題進(jìn)行處理了,那么還有什么需要去計算的呢?我們知道看輸出效果好壞都是看數(shù)據(jù)有沒有符合預(yù)測數(shù)據(jù)得到的,那么其中就會有誤差出現(xiàn),所以就需要計算出預(yù)測的誤差,通過誤差來確定另外一個對于任何一個神經(jīng)網(wǎng)絡(luò),都不應(yīng)該忽略一個關(guān)鍵性的參數(shù),那就是權(quán)重W,這對于神經(jīng)網(wǎng)絡(luò)的處理尤為關(guān)鍵。并且對于每一層網(wǎng)絡(luò),對于與各層的輸出數(shù)據(jù)效果都可以知道每一層網(wǎng)絡(luò)所帶來的數(shù)據(jù)損失。因此對于數(shù)據(jù)損失和神經(jīng)網(wǎng)絡(luò)層的權(quán)重的求解,最常用的一種方法就是FP(正向傳播)和BP(反向傳播)算法了,通過正向傳播求損失,反向傳播來回傳誤差,根據(jù)誤差值來修改每一層網(wǎng)絡(luò)的權(quán)重,從而繼續(xù)迭代直到得到最小誤差,也就是最優(yōu)的效果。

當(dāng)知道誤差計算后,就要使誤差越來越小,這里就可以用先前提到的推薦算法里面的隨機(jī)梯度下降的方式來不斷調(diào)整權(quán)重W參數(shù),從而得到最小誤差值,此時得到的權(quán)重W也就是所要的權(quán)重參數(shù)。至于具體的BP(反向傳播)算法求解權(quán)重W的過程,我會在進(jìn)行Python深入之后,再繼續(xù)使用Python軟件來模擬演示這個過程,并且給出模擬的輸出效果散點圖。在這里就不進(jìn)行贅述了。

6.總結(jié)

 

在這一篇文稿中,主要介紹了深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)知識,對于這一塊問題,后續(xù)還有更深入的內(nèi)容,其中在神經(jīng)網(wǎng)絡(luò)這塊還有更為晦澀難懂的卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)。而這些內(nèi)容,我會放到下一篇文稿中進(jìn)行闡述,來一步步深入學(xué)習(xí)技術(shù)領(lǐng)域。

【51CTO原創(chuàng)稿件,合作站點轉(zhuǎn)載請注明原文作者和出處為51CTO.com】

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2017-05-31 13:23:41

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2025-03-03 08:10:00

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)人工智能

2017-11-30 18:05:18

2017-07-06 17:03:45

BP算法Python神經(jīng)網(wǎng)絡(luò)

2015-09-11 09:27:21

神經(jīng)網(wǎng)絡(luò)發(fā)明

2020-09-09 10:20:48

GraphSAGE神經(jīng)網(wǎng)絡(luò)人工智能

2021-10-29 09:55:20

人工神經(jīng)網(wǎng)絡(luò)

2021-09-24 12:00:40

人工智能AI神經(jīng)網(wǎng)絡(luò)

2020-12-21 08:00:00

人工智能深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2018-11-28 15:39:21

人工神經(jīng)嵌入式SDK

2017-04-06 18:34:16

人工智能

2021-08-25 13:13:58

神經(jīng)網(wǎng)絡(luò)AI算法

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2024-10-17 13:05:35

神經(jīng)網(wǎng)絡(luò)算法機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2024-09-12 08:28:32

2024-06-28 08:15:02

2024-06-11 08:19:34

2024-07-10 11:09:35

2023-07-19 08:55:00

神經(jīng)網(wǎng)絡(luò)推薦系統(tǒng)
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 欧美一区免费在线观看 | 在线一区观看 | 欧美午夜一区二区三区免费大片 | 国产精品av久久久久久久久久 | 伊人久久国产 | 日韩一区二区在线视频 | 日本三级网站在线 | 91精品国产综合久久久亚洲 | 国产99精品 | 精品国产成人 | 亚洲免费一区 | 国产一区二区精品在线 | 欧美成人一区二区 | 天天综合日日夜夜 | 色男人天堂av| 国产在线视频在线观看 | 婷婷中文在线 | 国产韩国精品一区二区三区 | 看av网| 成人精品国产 | 91超碰在线 | www.青青草 | 免费中文字幕日韩欧美 | 九九激情视频 | 亚洲午夜精品视频 | 成人精品一区二区户外勾搭野战 | 久久精品国产99国产精品亚洲 | 国产精品久久久久久婷婷天堂 | 成人av观看 | 婷婷91 | 午夜小电影 | 国产精品高潮呻吟久久 | 国产精品视频久久久久 | www成人免费视频 | 久久国产一区二区三区 | www.国产.com| 日韩高清一区 | 亚洲精品久久久 | 91在线网站 | 一级看片免费视频 | 91精品久久久久久综合五月天 |