成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

100行Python代碼,輕松搞定神經網絡

開發 后端
用tensorflow,pytorch這類深度學習庫來寫一個神經網絡早就不稀奇了。可是,你知道怎么用python和numpy來優雅地搭一個神經網絡嘛?

[[264277]]

大數據文摘出品

來源:eisenjulian

編譯:周家樂、錢天培

用tensorflow,pytorch這類深度學習庫來寫一個神經網絡早就不稀奇了。

可是,你知道怎么用python和numpy來優雅地搭一個神經網絡嘛?

現如今,有多種深度學習框架可供選擇,他們帶有自動微分、基于圖的優化計算和硬件加速等各種重要特性。對人們而言,似乎享受這些重要特性帶來的便利已經是理所當然的事兒了。但其實,瞧一瞧隱藏在這些特性下的東西,能更好的幫助你理解這些網絡究竟是如何工作的。

所以今天,文摘菌就來手把手教大家搭一個神經網絡。原料就是簡單的python和numpy代碼!

文章中的所有代碼可以都在這兒獲取。

https://colab.research.google.com/github/eisenjulian/slides/blob/master/NN_from_scratch/notebook.ipynb

符號說明

在計算反向傳播時, 我們可以選擇使用函數符號、變量符號去記錄求導過程。它們分別對應了計算圖中的邊和節點來表示它們。

給定R^n→R和x∈R^n, 那么梯度是由偏導∂f/∂j(x)組成的n維行向量。

如果f:R^n→R^m 和x∈R^n,那么 Jacobian矩陣是下列函數組成的一個m×n的矩陣。

對于給定的函數f和向量a和b如果a=f(b)那么我們用∂a/∂b 表示Jacobian矩陣,當a是實數時則表示梯度。

鏈式法則

給定三個分屬于不同向量空間的向量a∈A及c∈C和兩個可微函數f:A→B及g:B→C使得f(a)=b和g(b)=c,我們能得到復合函數的Jacobian矩陣是函數f和g的jacobian矩陣的乘積:

這就是大名鼎鼎的鏈式法則。提出于上世紀60、70年代的反向傳播算法就是應用了鏈式法則來計算一個實函數相對于其不同參數的梯度的。

要知道我們的最終目標是通過沿著梯度的相反方向來逐步找到函數的最小值 (當然***是全局最小值), 因為至少在局部來說, 這樣做將使得函數值逐步下降。當我們有兩個參數需要優化時, 整個過程如圖所示:

反向模式求導

假設函數fi(ai)=ai+1由多于兩個函數復合而成,我們可以反復應用公式求導并得到:

可以有很多種方式計算這個乘積,最常見的是從左向右或從右向左。

如果an是一個標量,那么在計算整個梯度的時候我們可以通過先計算∂an/∂an-1并逐步右乘所有的Jacobian矩陣∂ai/∂ai-1來得到。這個操作有時被稱作VJP或向量-Jacobian乘積(Vector-Jacobian Product)。

又因為整個過程中我們是從計算∂an/∂an-1開始逐步計算∂an/∂an-2,∂an/∂an-3等梯度到***,并保存中間值,所以這個過程被稱為反向模式求導。最終,我們可以計算出an相對于所有其他變量的梯度。

相對而言,前向模式的過程正相反。它從計算Jacobian矩陣如∂a2/∂a1開始,并左乘∂a3/∂a2來計算∂a3/∂a1。如果我們繼續乘上∂ai/∂ai-1并保存中間值,最終我們可以得到所有變量相對于∂a2/∂a1的梯度。當∂a2/∂a1是標量時,所有乘積都是列向量,這被稱為Jacobian向量乘積(或者JVP,Jacobian-Vector Product )。

你大概已經猜到了,對于反向傳播來說,我們更偏向應用反向模式——因為我們想要逐步得到損失函數對于每層參數的梯度。正向模式雖然也可以計算需要的梯度, 但因為重復計算太多而效率很低。

計算梯度的過程看起來像是有很多高維矩陣相乘, 但實際上,Jacobian矩陣常常是稀疏、塊或者對角矩陣,又因為我們只關心將其右乘行向量的結果,所以就不需要耗費太多計算和存儲資源。

在本文中, 我們的方法主要用于按順序逐層搭建的神經網絡, 但同樣的方法也適用于計算梯度的其他算法或計算圖。

關于反向和正向模式的詳盡描述可以參考這里☟:

http://colah.github.io/posts/2015-08-Backprop/

深度神經網絡

在典型的監督機器學習算法中, 我們通常用到一個很復雜函數,它的輸入是存有標簽樣本數值特征的張量。此外,還有很多用于描述模型的權重張量。

損失函數是關于樣本和權重的標量函數, 它是衡量模型輸出與預期標簽的差距的指標。我們的目標是找到最合適的權重讓損失最小。在深度學習中, 損失函數被表示為一串易于求導的簡單函數的復合。所有這些簡單函數(除了***一個函數),都是我們指的層, 而每一層通常有兩組參數: 輸入 (可以是上一層的輸出) 和權重。

而***一個函數代表了損失度量, 它也有兩組參數: 模型輸出y和真實標簽y^。例如, 如果損失度量l為平方誤差, 則∂l/∂y為 2 avg(y-y^)。損失度量的梯度將是應用反向模式求導的起始行向量。

Autograd

自動求導背后的思想已是相當成熟了。它可以在運行時或編譯過程中完成,但如何實現會對性能產生巨大影響。我建議你能認真閱讀 HIPS autograd的 Python 實現,來真正了解autograd。

核心想法其實始終未變。從我們在學校學習如何求導時, 就應該知道這一點了。如果我們能夠追蹤最終求出標量輸出的計算, 并且我們知道如何對簡單操作求導 (例如加法、乘法、冪、指數、對數等等), 我們就可以算出輸出的梯度。

假設我們有一個線性的中間層f,由矩陣乘法表示(暫時不考慮偏置):

為了用梯度下降法調整w值,我們需要計算梯度∂l/∂w。這里我們可以觀察到,改變y從而影響l是一個關鍵。

每一層都必須滿足下面這個條件: 如果給出了損失函數相對于這一層輸出的梯度, 就可以得到損失函數相對于這一層輸入(即上一層的輸出)的梯度。

現在應用兩次鏈式法則得到損失函數相對于w的梯度:

相對于x的是:

因此, 我們既可以后向傳遞一個梯度, 使上一層得到更新并更新層間權重, 以優化損失, 這就行啦!

動手實踐

先來看看代碼, 或者直接試試Colab Notebook:

https://colab.research.google.com/github/eisenjulian/slides/blob/master/NN_from_scratch/notebook.ipynb

我們從封裝了一個張量及其梯度的類(class)開始。

現在我們可以創建一個layer類,關鍵的想法是,在前向傳播時,我們返回這一層的輸出和可以接受輸出梯度和輸入梯度的函數,并在過程中更新權重梯度。

然后, 訓練過程將有三個步驟, 計算前向傳遞, 然后后向傳遞, ***更新權重。這里關鍵的一點是把更新權重放在***, 因為權重可以在多個層中重用,我們更希望在需要的時候再更新它。

  1. class Layer: 
  2.   def __init__(self): 
  3.     self.parameters = [] 
  4.  
  5.   def forward(self, X): 
  6.     """ 
  7.     Override me! A simple no-op layer, it passes forward the inputs 
  8.     """ 
  9.     return X, lambda D: D 
  10.  
  11.   def build_param(self, tensor): 
  12.     """ 
  13.     Creates a parameter from a tensor, and saves a reference for the update step 
  14.     """ 
  15.     param = Parameter(tensor) 
  16.     self.parameters.append(param) 
  17.     return param 
  18.  
  19.   def update(self, optimizer): 
  20.     for param in self.parameters: optimizer.update(param) 

標準的做法是將更新參數的工作交給優化器, 優化器在每一批(batch)后都會接收參數的實例。最簡單和最廣為人知的優化方法是mini-batch隨機梯度下降。

  1. class SGDOptimizer(): 
  2.   def __init__(self, lr=0.1): 
  3.     self.lr = lr 
  4.  
  5.   def update(self, param): 
  6.     param.tensor -self.lr * param.gradient 
  7.     param.gradient.fill(0) 

在此框架下, 并使用前面計算的結果后, 線性層如下所示:

  1. class Linear(Layer): 
  2.   def __init__(self, inputs, outputs): 
  3.     super().__init__() 
  4.     tensor = np.random.randn(inputs, outputs) * np.sqrt(1 / inputs) 
  5.     selfself.weights = self.build_param(tensor) 
  6.     selfself.bias = self.build_param(np.zeros(outputs)) 
  7.  
  8.   def forward(self, X): 
  9.     def backward(D): 
  10.       self.weights.gradient += X.T @ D 
  11.       self.bias.gradient += D.sum(axis=0
  12.       return D @ self.weights.tensor.T 
  13.     return X @ self.weights.tensor +  self.bias.tensor, backward 

接下來看看另一個常用的層,激活層。它們屬于點式(pointwise)非線性函數。點式函數的 Jacobian矩陣是對角矩陣, 這意味著當乘以梯度時, 它是逐點相乘的。

  1. class ReLu(Layer): 
  2.   def forward(self, X): 
  3.     mask = X > 0 
  4.     return X * mask, lambda D: D * mask 

計算Sigmoid函數的梯度略微有一點難度,而它也是逐點計算的:

  1. class Sigmoid(Layer): 
  2.   def forward(self, X): 
  3.     S = 1 / (1 + np.exp(-X)) 
  4.     def backward(D): 
  5.       return D * S * (1 - S) 
  6.     return S, backward 

當我們按序構建很多層后,可以遍歷它們并先后得到每一層的輸出,我們可以把backward函數存在一個列表內,并在計算反向傳播時使用,這樣就可以直接得到相對于輸入層的損失梯度。就是這么神奇:

  1. class Sequential(Layer): 
  2.   def __init__(self, *layers): 
  3.     super().__init__() 
  4.     self.layers = layers 
  5.     for layer in layers: 
  6.       self.parameters.extend(layer.parameters) 
  7.  
  8.   def forward(self, X): 
  9.     backprops = [] 
  10.     Y = X 
  11.     for layer in self.layers: 
  12.       Y, backprop = layer.forward(Y) 
  13.       backprops.append(backprop) 
  14.     def backward(D): 
  15.       for backprop in reversed(backprops): 
  16.         D = backprop(D) 
  17.       return D 
  18.     return Y, backward 

正如我們前面提到的,我們將需要定義批樣本的損失函數和梯度。一個典型的例子是MSE,它被常用在回歸問題里,我們可以這樣實現它:

  1. def mse_loss(Yp, Yt): 
  2.   diff = Yp - Yt 
  3.   return np.square(diff).mean(), 2 * diff / len(diff) 

就差一點了!現在,我們定義了兩種層,以及合并它們的方法,下面如何訓練呢?我們可以使用類似于scikit-learn或者Keras中的API。

  1. class Learner(): 
  2.   def __init__(self, model, loss, optimizer): 
  3.     self.model = model 
  4.     self.loss = loss 
  5.     self.optimizer = optimizer 
  6.  
  7.   def fit_batch(self, X, Y): 
  8.     Y_, backward = self.model.forward(X) 
  9.     L, D = self.loss(Y_, Y) 
  10.     backward(D) 
  11.     self.model.update(self.optimizer) 
  12.     return L 
  13.  
  14.   def fit(self, X, Y, epochs, bs): 
  15.     losses = [] 
  16.     for epoch in range(epochs): 
  17.       p = np.random.permutation(len(X)) 
  18.       X, Y = X[p], Y[p] 
  19.       loss = 0.0 
  20.       for i in range(0, len(X), bs): 
  21.         loss += self.fit_batch(X[i:i + bs], Y[i:i + bs]) 
  22.       losses.append(loss) 
  23.     return losses 

這就行了!如果你跟隨著我的思路,你可能就會發現其實有幾行代碼是可以被省掉的。

這代碼能用不?

現在可以用一些數據測試下我們的代碼了。

  1. X = np.random.randn(100, 10) 
  2. w = np.random.randn(10, 1) 
  3. b = np.random.randn(1) 
  4. Y = X @ W + B 
  5.  
  6. model = Linear(10, 1) 
  7. learner = Learner(model, mse_loss, SGDOptimizer(lr=0.05)) 
  8. learner.fit(X, Y, epochs=10bs=10

我一共訓練了10輪。

我們還能檢查學到的權重和真實的權重是否一致。

  1. print(np.linalg.norm(m.weights.tensor - W), (m.bias.tensor - B)[0]) 
  2. > 1.848553648022619e-05 5.69305886743976e-06 

好了,就這么簡單。讓我們再試試非線性數據集,例如y=x1x2,并且再加上一個Sigmoid非線性層和另一個線性層讓我們的模型更復雜些。像下面這樣:

  1. X = np.random.randn(1000, 2) 
  2. Y = X[:, 0] * X[:, 1] 
  3.  
  4. losses1 = Learner
  5.     Sequential(Linear(2, 1)), 
  6.     mse_loss, 
  7.     SGDOptimizer(lr=0.01) 
  8. ).fit(X, Y, epochs=50bs=50
  9.  
  10. losses2 = Learner
  11.     Sequential( 
  12.         Linear(2, 10), 
  13.         Sigmoid(), 
  14.         Linear(10, 1) 
  15.     ), 
  16.     mse_loss, 
  17.     SGDOptimizer(lr=0.3) 
  18. ).fit(X, Y, epochs=50bs=50
  19.  
  20. plt.plot(losses1) 
  21. plt.plot(losses2) 
  22. plt.legend(['1 Layer', '2 Layers']) 
  23. plt.show() 

比較單一層vs兩層模型在使用sigmoid激活函數的情況下的訓練損失。

***

希望通過搭建這個簡單的神經網絡,你已經掌握了用python和numpy實現神經網絡的基本思路。

在這篇文章中,我們只定義了三種類型的層和一個損失函數, 所以還有很多事情可做,但基本原理都相似。感興趣的同學可以試著實現更復雜的神經網絡哦!

References:

  • Thinc Deep Learning Library:https://github.com/explosion/thinc
  • PyTorch Tutorial:https://pytorch.org/tutorials/beginner/nn_tutorial.html
  • Calculus on Computational Graphs:http://colah.github.io/posts/2015-08-Backprop/
  • HIPS Autograd:https://github.com/HIPS/autograd

相關報道:https://eisenjulian.github.io/deep-learning-in-100-lines/

【本文是51CTO專欄機構大數據文摘的原創文章,微信公眾號“大數據文摘( id: BigDataDigest)”】

     大數據文摘二維碼

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2019-07-25 08:20:37

代碼開發神經網絡

2020-04-20 13:45:32

神經網絡模型代碼

2023-03-07 18:55:05

代碼機器學習

2017-09-18 08:08:33

JavaScript神經網絡代碼

2017-09-15 13:35:11

JavaScript神經網絡

2020-04-24 12:16:48

Python 圖像分類實戰

2019-05-07 19:12:28

機器學習神經網絡Python

2018-07-03 16:10:04

神經網絡生物神經網絡人工神經網絡

2021-01-08 05:26:31

ServerlessPython 預測

2017-08-29 09:40:26

JavaScript代碼神經網絡

2020-03-16 10:16:19

代碼開發工具

2023-05-04 07:34:37

Rust代碼CPU

2021-08-18 15:48:03

神經網絡數據圖形

2018-01-24 10:48:34

神經網絡深度學習前端

2017-09-10 07:07:32

神經網絡數據集可視化

2025-02-25 14:13:31

2021-04-07 13:43:07

PythonDash數據庫

2022-04-07 09:01:52

神經網絡人工智能

2017-05-04 18:30:34

大數據卷積神經網絡

2020-08-06 10:11:13

神經網絡機器學習算法
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: www国产亚洲精品久久网站 | 国产一区二区高清在线 | 亚洲三区在线 | 久久99精品视频 | 国产在线观看免费 | 国产精品高清一区二区三区 | 久久国产视频网 | 在线亚洲免费视频 | 天堂色区| 国产一区二区三区 | 国产视频一区在线 | 看一级毛片 | 欧美视频成人 | 久久久久久九九九九九九 | 日韩精品一区二区在线 | 午夜精品视频在线观看 | 色资源在线 | 欧美日韩专区 | 91成人免费观看 | 欧美一卡二卡在线观看 | 色狠狠桃花综合 | 亚洲欧洲一区二区 | 日韩中文字幕免费在线 | 97视频久久 | 日本一区高清 | 日韩一区二区三区视频在线观看 | 一区二区av| 青草青草久热精品视频在线观看 | 亚洲在线中文字幕 | 国产精品揄拍一区二区久久国内亚洲精 | 欧美v日韩| 国产专区在线 | 中文区中文字幕免费看 | 国产免费又黄又爽又刺激蜜月al | 欧美视频中文字幕 | 综合久久综合久久 | 国产精品日韩在线 | 国产精品高潮呻吟久久久久 | 国产亚洲精品精品国产亚洲综合 | 免费看一级毛片 | 综合精品在线 |