深度學習的工作原理:窺視驅動今日AI的神經網絡的內部
譯文【51CTO.com快譯】今天人工智能的繁榮離不開一種名為深度學習的技術,該技術基于人工神經網絡。本文通過圖形解釋了如何構建和訓練這些神經網絡。
圖1. 架構圖
人工神經網絡中的每個神經元對輸入求和,并運用激活函數以確定輸出。這種架構的靈感來自大腦中的機理,其中神經元通過突觸彼此之間傳輸信號。
圖2
這是一個假設的前饋深度神經網絡的結構(之所以是“深度”,是由于它有多個隱藏層)。該例子展示的一個網絡解釋了手寫數字的圖像,并將它們分類為10個可能數字中的一個。
輸入層含有許多神經元,每個神經元都有一個激活(activation),被設置為圖像中一個像素的灰度值。這些輸入神經元連接到下一層的神經元,在它們乘以某個值(稱為權重)后傳遞其激活級別。第二層中的每個神經元對許多輸入求和,并運用激活函數以確定輸出,該輸出以相同的方式前饋。
訓練
這種神經網絡通過計算實際輸出和預期輸出之間的差異來加以訓練。這里的數學優化問題中的維度與網絡中的可調參數一樣多——主要是神經元之間連接的權重,可以是正[藍線] 或負[紅線]。
訓練網絡本質上是找到這種多維“損失”或“成本”函數的最小值。它在多輪訓練中迭代完成,逐漸改變網絡的狀態。實際上,這需要根據為一組隨機輸入示例計算的輸出對網絡的權重進行多次小的調整,每次都從控制輸出層的權重開始,然后通過網絡向后移動。(為簡單起見,這里只顯示了與每一層中單個神經元相關的連接。)這個反向傳播過程針對許多隨機的訓練樣本集重復進行,直到損失函數最小化,然后網絡提供它為任何新輸入所能提供的最佳結果。
圖3
圖4
第1步:在輸入端顯示手寫的“3”時,未經訓練的網絡的輸出神經元會有隨機激活。希望與3相關的輸出神經元有高激活[深色陰影],而其他輸出神經元有低激活[淺色陰影]。因此,比如說,必須加大與3相關的神經元的激活[紫色箭頭]。
圖5
第2步:為此,從第二個隱藏層中的神經元到數字“3”的輸出神經元的連接權重應該會變得更正[黑色箭頭],變化的大小與所連接的隱藏神經元的激活成正比。
圖6
第 3 步:然后對第二個隱藏層中的神經元執行類似的過程。比如說,為了使網絡更準確,該層中的頂部神經元可能需要降低激活[綠色箭頭]。通過調整其與第一個隱藏層[黑色箭頭]的連接權重,可以將網絡往該方向推進。
圖7
第4步:然后對第一個隱藏層重復該過程。比如說,該層中的第一個神經元可能需要加大激活 [橙色箭頭]。
原文標題:How Deep Learning Works Inside the neural networks that power today's AI,作者:SAMUEL K. MOORE DAVID SCHNEIDER ELIZA STRICKLAND
【51CTO譯稿,合作站點轉載請注明原文譯者和出處為51CTO.com】