面向深度學(xué)習(xí)的五大神經(jīng)網(wǎng)絡(luò)模型及其應(yīng)用
譯文【51CTO.com快譯】神經(jīng)網(wǎng)絡(luò)是識別一組數(shù)據(jù)中潛在關(guān)系的一系列算法。這些算法很大程度上有賴于人腦的運作方式。神經(jīng)網(wǎng)絡(luò)可以適應(yīng)不斷變化的輸入,生成最佳結(jié)果,無需重新設(shè)計輸出標(biāo)準(zhǔn)。在某種程度上,這些神經(jīng)網(wǎng)絡(luò)類似生物神經(jīng)元的系統(tǒng)。
深度學(xué)習(xí)是機器學(xué)習(xí)的重要組成部分,深度學(xué)習(xí)算法基于神經(jīng)網(wǎng)絡(luò)。有幾種功能不同的神經(jīng)網(wǎng)絡(luò)架構(gòu),最適合特定的應(yīng)用場景。本文介紹一些最知名的架構(gòu),尤其是深度學(xué)習(xí)方面的架構(gòu)。
多層感知器
多層感知器(MLP)是一類前饋人工神經(jīng)網(wǎng)絡(luò)。感知器這個術(shù)語具體是指單個神經(jīng)元模型,它是大型神經(jīng)網(wǎng)絡(luò)的前體。
MLP包括節(jié)點的三個主要層:輸入層、隱藏層和輸出層。在隱藏層和輸出層中,每個節(jié)點都被視為使用非線性激活函數(shù)的神經(jīng)元。MLP使用一種稱為反向傳播的監(jiān)督式學(xué)習(xí)技術(shù)進行訓(xùn)練。初始化神經(jīng)網(wǎng)絡(luò)時,為每個神經(jīng)元設(shè)置權(quán)重。反向傳播有助于調(diào)整神經(jīng)元權(quán)重,以獲得更接近預(yù)期的輸出。
對于涉及表格數(shù)據(jù)集、分類預(yù)測問題和回歸預(yù)測問題的項目,MLP最理想。
卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型處理具有網(wǎng)格圖案(比如圖像)的數(shù)據(jù)。它旨在自動學(xué)習(xí)特征的空間層次結(jié)構(gòu)。CNN通常包括三種類型的層:卷積層、池化層和完全連接的層。
卷積層和池化層執(zhí)行特征提取任務(wù),這些提取的特征由完全連接的層映射到最終輸出中。 CNN最適合圖像處理。
圖像識別、圖像分類、對象檢測和人臉識別是CNN的一些應(yīng)用場景。
遞歸神經(jīng)網(wǎng)絡(luò)
在遞歸神經(jīng)網(wǎng)絡(luò)(RNN)中,前一步的輸出將作為輸入被反饋回到當(dāng)前步驟。RNN中的隱藏層實現(xiàn)這種反饋系統(tǒng)。該隱藏狀態(tài)可以存儲有關(guān)序列中之前步驟的一些信息。
RNN中的“內(nèi)存”可幫助模型記住已計算的所有信息。反過來,它使用這些同樣的參數(shù),以便每個輸入生成輸出,因而降低了參數(shù)的復(fù)雜性。
RNN是使用最廣泛的神經(jīng)網(wǎng)絡(luò)類型之一,主要是由于RNN具有更強的學(xué)習(xí)能力,而且能夠執(zhí)行諸如學(xué)習(xí)手寫或語言識別之類的復(fù)雜任務(wù)。RNN適用的其他一些領(lǐng)域包括預(yù)測問題、機器翻譯、視頻標(biāo)記、文本摘要,甚至音樂創(chuàng)作。
深度信念網(wǎng)絡(luò)
深度信念網(wǎng)絡(luò)(DBN)使用概率和無監(jiān)督學(xué)習(xí)來生成輸出。DBN由二進制潛在變量、無向?qū)雍陀邢驅(qū)咏M成。DBN有別于其他模型,原因是每一層都按順序進行調(diào)節(jié),每一層都學(xué)習(xí)整個輸入。
在DBN中,每個子網(wǎng)的隱藏層都是下一個的可見層。這種組合可以實現(xiàn)快速的逐層無監(jiān)督訓(xùn)練過程:對比差異應(yīng)用于每個子網(wǎng),從最低可見層開始。貪婪的學(xué)習(xí)算法用于訓(xùn)練DBN。學(xué)習(xí)系統(tǒng)每次取一層。因此,每一層收到不同版本的數(shù)據(jù),每一層都使用前一層的輸出作為其輸入。
DBN主要應(yīng)用于圖像識別、視頻識別和運動捕獲數(shù)據(jù)。
受限玻爾茲曼機
玻爾茲曼機(RBM)是一種生成式非確定性(隨機)神經(jīng)網(wǎng)絡(luò),可學(xué)習(xí)其輸入集的概率分布。RBM是組成深度信念網(wǎng)絡(luò)構(gòu)建模塊的淺度兩層神經(jīng)網(wǎng)絡(luò)。RBM中的第一層名為可見層或輸入層,第二層名為隱藏層。它由名為節(jié)點的類似神經(jīng)元的單元組成;節(jié)點跨層相互連接,但不在同一層內(nèi)。
RBM通常用于降維、推薦系統(tǒng)和主題建模等應(yīng)用場景。不過近年來,生成式對抗網(wǎng)絡(luò)(GAN)在漸漸取代RBM。
原文標(biāo)題:Top 5 Neural Network Models For Deep Learning & Their Applications,作者:Shraddha Goled
【51CTO譯稿,合作站點轉(zhuǎn)載請注明原文譯者和出處為51CTO.com】