成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

基礎(chǔ)深度學(xué)習(xí)概念備忘錄

開發(fā) 開發(fā)工具 深度學(xué)習(xí)
深度學(xué)習(xí)可能對于很多初學(xué)者是一頭霧水,在高速發(fā)展的同時(shí)有很多新的概念名詞被拋出,而本文則是對一些常見名詞的備忘介紹。

深度學(xué)習(xí)可能對于很多初學(xué)者是一頭霧水,在高速發(fā)展的同時(shí)有很多新的概念名詞被拋出,而本文則是對一些常見名詞的備忘介紹。

Gradient ∇ (微分算符):梯度

梯度即是某個(gè)函數(shù)的偏導(dǎo)數(shù),其允許輸入多個(gè)向量然后輸出單個(gè)值,某個(gè)典型的函數(shù)即是神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)。梯度會(huì)顯示出隨著變量輸入的增加輸出值增加的方向,換言之,如果我們要降低損失值則反梯度逆向前行即可。

Back Propagation:反向傳播

簡稱為Back prop,即將前向傳播輸入值計(jì)算得出的誤差反向傳遞到輸入值中,經(jīng)常用于微積分中的鏈?zhǔn)秸{(diào)用。

Sigmoid σ

用于將神經(jīng)元的輸出結(jié)果限制在[0,1]范圍內(nèi)的閾值函數(shù),該函數(shù)的輸出圖形看起來有點(diǎn)像S型,在希臘語中就是所謂Sigma。Sigmoid函數(shù)是Logistic函數(shù)的某個(gè)特例。

Rectified Linear Units or ReLU

Sigmoid函數(shù)的輸出間隔為[0,1],而ReLU的輸出范圍為[0,infinity],換言之Sigmoid更合適Logistic回歸而ReLU更適合于表示正數(shù)。深度學(xué)習(xí)中ReLU并不會(huì)受制于所謂的梯度消失問題(Vanishing Gradient Problem)。

Tanh

Tanh函數(shù)有助于將你的網(wǎng)絡(luò)權(quán)重控制在[-1,1]之間,而且從上圖中可以看出,越靠近0的地方梯度值越大,并且梯度的范圍位于[0,1]之間,和Sigmoid函數(shù)的范圍一致,這一點(diǎn)也能有助于避免梯度偏差。

LSTM/GRU

最早見于Recurrent Neural Networks,不過同樣可以用于其他內(nèi)存單元較少的地方。其主要可以在訓(xùn)練中保持輸入的狀態(tài),從而避免之前因?yàn)镽NN丟失輸入先驗(yàn)上下文而導(dǎo)致的梯度消失問題。

Softmax

Softmax函數(shù)常用于神經(jīng)網(wǎng)絡(luò)的末端以添加分類功能,該函數(shù)主要是進(jìn)行多元邏輯斯蒂回歸,也就可以用于多元分類問題。通常會(huì)使用交叉熵作為其損失函數(shù)。

L1 & L2 Regularization

正則化項(xiàng)通過對系數(shù)添加懲罰項(xiàng)來避免過擬合,正則化項(xiàng)也能夠指明模型復(fù)雜度。L1與L2的區(qū)別在于L1能夠保證模型的稀疏性。引入正則化項(xiàng)能夠保證模型的泛化能力并且避免在訓(xùn)練數(shù)據(jù)中過擬合。

Drop out

Drop out同樣可以避免過擬合,并且能以近似指數(shù)的時(shí)間來合并多個(gè)不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。該方法會(huì)隨機(jī)地在每一層中選擇一些顯性層與隱層,在我們的實(shí)踐中通常會(huì)由固定比例的層Drop out決定。

Batch Normalization

在深度學(xué)習(xí)中,如果有太多的層次會(huì)導(dǎo)致所謂的Internal Covariate Shift,也就是訓(xùn)練過程中因?yàn)榫W(wǎng)絡(luò)參數(shù)的變化導(dǎo)致網(wǎng)絡(luò)激活分布的變化。如果我們能減少這種變量遷移,我們能夠更快地訓(xùn)練網(wǎng)絡(luò)。Batch Normalization則通過將每個(gè)處理塊進(jìn)行正則化處理來解決這個(gè)問題。

Objective Functions

也就是損失函數(shù)或者Optimization Score Function,某個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)的目標(biāo)即是最小化該函數(shù)值從而提升網(wǎng)絡(luò)的準(zhǔn)確度。

F1/F Score

用于衡量某個(gè)模型的準(zhǔn)確度的標(biāo)準(zhǔn):

  1. F1 = 2 * (Precision * Recall) / (Precision + Recall)Precision = True Positives / (True Positives + False Positives)Recall = True Positives / (True Positives + False Negatives) 

用于計(jì)算預(yù)測標(biāo)簽值與真實(shí)標(biāo)簽值之間的差距,基本的定義如下:


【本文是51CTO專欄作者“張梓雄 ”的原創(chuàng)文章,如需轉(zhuǎn)載請通過51CTO與作者聯(lián)系】

戳這里,看該作者更多好文

責(zé)任編輯:武曉燕 來源: 51CTO專欄
相關(guān)推薦

2011-08-16 18:38:23

Core Animat動(dòng)畫

2025-02-17 14:48:14

2018-12-24 21:40:12

2014-04-17 10:30:41

Linux 命令黑白備忘錄

2023-10-10 15:26:30

內(nèi)存泄露OOM

2011-04-11 10:03:32

錢伯斯思科

2020-11-02 10:41:33

備忘錄模式

2018-06-20 13:14:16

MySQL數(shù)據(jù)優(yōu)化查詢備忘錄

2013-08-29 10:50:48

移動(dòng)網(wǎng)站性能優(yōu)化移動(dòng)web

2016-03-03 10:09:26

2021-03-08 00:12:44

Grid 備忘錄 函數(shù)

2011-12-07 09:19:49

JavaJ2MEBicaVM

2009-08-14 15:50:45

C#正則表達(dá)式

2009-06-17 16:54:27

MySpace備忘錄裁員

2011-08-31 10:34:47

JavaJava備忘錄

2023-12-31 12:05:42

Markdown語法鏈接

2022-04-07 08:00:00

Javascript開發(fā)

2023-10-31 09:07:16

備忘錄模式保存

2023-10-07 00:14:53

2011-05-20 09:12:48

AMD北京云基地云計(jì)算
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 黄色一级毛片免费看 | 午夜在线视频 | 久久不卡 | 国产成人精品免费视频 | 国产偷录叫床高潮录音 | 成人国产精品视频 | 精品国产乱码久久久久久a丨 | 欧美日韩综合 | 国产欧美日韩一区 | 中文字幕在线观看视频网站 | 亚洲第一黄色网 | 亚洲国产精品久久久久秋霞不卡 | 成人精品一区二区 | 久久网一区二区三区 | av中文字幕在线观看 | 亚洲a视频 | 国产日韩精品一区二区 | 亚洲午夜精品一区二区三区他趣 | 久久久.com | 97视频久久 | 亚洲免费网址 | 久久久久亚洲精品 | 国产大片一区 | 久久大陆 | 国产美女精品 | 国产女人与拘做受免费视频 | 一级在线视频 | 日日摸天天添天天添破 | 欧美一区二区大片 | 人成在线视频 | 久久久噜噜噜www成人网 | 精品亚洲一区二区三区四区五区 | 老妇激情毛片免费 | 一区二区三区在线观看免费视频 | 国产精品美女久久久久久免费 | 国产91在线播放 | 成人在线观 | 久久久国产一区二区三区 | 中文字幕人成乱码在线观看 | 日本精a在线观看 | 色爱区综合|