成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

逆天了!用Numpy開發深度學習框架,透視神經網絡訓練過程

人工智能 深度學習
一次模型訓練的完整過程大致就串完了,大家可以設置打印語句,或者通過DEBUG的方式跟蹤每一行代碼的執行過程,這樣可以更了解模型的訓練過程。

哈嘍,大家好。

今天給大家分享一個非常牛逼的開源項目,用Numpy?開發了一個深度學習框架,語法與 Pytorch 基本一致。

圖片

今天以一個簡單的卷積神經網絡為例,分析神經網絡訓練過程中,涉及的前向傳播、反向傳播、參數優化等核心步驟的源碼。

使用的數據集和代碼已經打包好,文末有獲取方式。

1. 準備工作

先準備好數據和代碼。

1.1 搭建網絡

首先,下載框架源碼,地址:https://github.com/duma-repo/PyDyNet

git clone https://github.com/duma-repo/PyDyNet.git

搭建LeNet卷積神經網絡,訓練三分類模型。

圖片

在PyDyNet目錄直接創建代碼文件即可。

from pydynet import nn

class LeNet(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(1, 6, kernel_size=5, padding=2)
self.conv2 = nn.Conv2d(6, 16, kernel_size=5)
self.avg_pool = nn.AvgPool2d(kernel_size=2, stride=2, padding=0)
self.sigmoid = nn.Sigmoid()
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 3)

def forward(self, x):
x = self.conv1(x)
x = self.sigmoid(x)
x = self.avg_pool(x)

x = self.conv2(x)
x = self.sigmoid(x)
x = self.avg_pool(x)

x = x.reshape(x.shape[0], -1)

x = self.fc1(x)
x = self.sigmoid(x)
x = self.fc2(x)
x = self.sigmoid(x)
x = self.fc3(x)

return x

可以看到,網絡的定義與Pytorch語法完全一樣。

我提供的源代碼里,提供了 summary 函數可以打印網絡結構。

1.2 準備數據

訓練數據使用Fanshion-MNIST數據集,它包含10個類別的圖片,每個類別 6k 張。

圖片

為了加快訓練,我只抽取了前3個類別,共1.8w張訓練圖片,做一個三分類模型。

1.3 模型訓練

import pydynet
from pydynet import nn
from pydynet import optim

lr, num_epochs = 0.9, 10
optimizer = optim.SGD(net.parameters(),
lr=lr)
loss = nn.CrossEntropyLoss()

for epoch in range(num_epochs):
net.train()
for i, (X, y) in enumerate(train_iter):
optimizer.zero_grad()
y_hat = net(X)
l = loss(y_hat, y)
l.backward()
optimizer.step()

with pydynet.no_grad():
metric.add(l.numpy() * X.shape[0],
accuracy(y_hat, y),
X.shape[0])

訓練代碼也跟Pytorch一樣。

下面重點要做的就是深入模型訓練的源碼,來學習模型訓練的原理。

2. train、no_grad和eval

模型開始訓練前,會調用net.train。

def train(self, mode: bool = True):
set_grad_enabled(mode)
self.set_module_state(mode)

可以看到,它會將grad?(梯度)設置成True?,之后創建的Tensor?是可以帶梯度的。Tensor帶上梯度后,便會將其放入計算圖中,等待求導計算梯度。

而下面的with no_grad(): 代碼

class no_grad:
def __enter__(self) -> None:
self.prev = is_grad_enable()
set_grad_enabled(False)

會將grad?(梯度)設置成False?,這樣之后創建的Tensor不會放到計算圖中,自然也不需要計算梯度,可以加快推理。

我們經常在Pytorch?中看到net.eval()的用法,我們也順便看一下它的源碼。

def eval(self):
return self.train(False)

可以看到,它直接調用train(False)?來關閉梯度,效果與no_grad()類似。

所以,一般在訓練前調用train?打開梯度。訓練后,調用eval關閉梯度,方便快速推理。

3. 前向傳播

前向傳播除了計算類別概率外,最最重要的一件事是按照前傳順序,將網絡中的 tensor? 組織成計算圖,目的是為了反向傳播時計算每個tensor的梯度。

tensor在神經網絡中,不止用來存儲數據,還用計算梯度、存儲梯度。

以第一層卷積操作為例,來查看如何生成計算圖。

def conv2d(x: tensor.Tensor,
kernel: tensor.Tensor,
padding: int = 0,
stride: int = 1):
'''二維卷積函數
'''
N, _, _, _ = x.shape
out_channels, _, kernel_size, _ = kernel.shape
pad_x = __pad2d(x, padding)
col = __im2col2d(pad_x, kernel_size, stride)
out_h, out_w = col.shape[-2:]
col = col.transpose(0, 4, 5, 1, 2, 3).reshape(N * out_h * out_w, -1)
col_filter = kernel.reshape(out_channels, -1).T
out = col @ col_filter
return out.reshape(N, out_h, out_w, -1).transpose(0, 3, 1, 2)

x?是輸入的圖片,不需要記錄梯度。kernel是卷積核的權重,需要計算梯度。

所以,pad_x = __pad2d(x, padding)? 生成的新的tensor也是不帶梯度的,因此也不需要加入計算圖中。

而kernel.reshape(out_channels, -1)?產生的tensor則是需要計算梯度,也需要加入計算圖中。

下面看看加入的過程:

def reshape(self, *new_shape):
return reshape(self, new_shape)

class reshape(UnaryOperator):
'''
張量形狀變換算子,在Tensor中進行重載

Parameters
----------
new_shape : tuple
變換后的形狀,用法同NumPy
'''
def __init__(self, x: Tensor, new_shape: tuple) -> None:
self.new_shape = new_shape
super().__init__(x)

def forward(self, x: Tensor)
return x.data.reshape(self.new_shape)

def grad_fn(self, x: Tensor, grad: np.ndarray)
return grad.reshape(x.shape)

reshape?函數會返回一個reshape?類對象,reshape?類繼承了UnaryOperator?類,并在__init__函數中,調用了父類初始化函數。

class UnaryOperator(Tensor):
def __init__(self, x: Tensor) -> None:
if not isinstance(x, Tensor):
x = Tensor(x)
self.device = x.device
super().__init__(
data=self.forward(x),
device=x.device,
# 這里 requires_grad 為 True
requires_grad=is_grad_enable() and x.requires_grad,
)

UnaryOperator?類繼承了Tensor?類,所以reshape?對象也是一個tensor。

在UnaryOperator的__init__?函數中,調用Tensor?的初始化函數,并且傳入的requires_grad?參數是True,代表需要計算梯度。

requires_grad?的計算代碼為is_grad_enable() and x.requires_grad,is_grad_enable()?已經被train?設置為True?,而x?是卷積核,它的requires_grad?也是True。

class Tensor:
def __init__(
self,
data: Any,
dtype=None,
device: Union[Device, int, str, None] = None,
requires_grad: bool = False,
) -> None:
if self.requires_grad:
# 不需要求梯度的節點不出現在動態計算圖中
Graph.add_node(self)

最終在Tensor?類的初始化方法中,調用Graph.add_node(self)?將當前tensor加入到計算圖中。

同理,下面使用requires_grad=True的tensor?常見出來的新tensor都會放到計算圖中。

經過一次卷積操作,計算圖中會增加 6 個節點。

4. 反向傳播

一次前向傳播完成后,從計算圖中最后一個節點開始,從后往前進行反向傳播。

l = loss(y_hat, y)
l.backward()

經過前向網絡一層層傳播,最終傳到了損失張量l。

以l?為起點,從前向后傳播,就可計算計算圖中每個節點的梯度。

backward的核心代碼如下:

def backward(self, retain_graph: bool = False):

for node in Graph.node_list[y_id::-1]:
grad = node.grad
for last in [l for l in node.last if l.requires_grad]:
add_grad = node.grad_fn(last, grad)

last.grad += add_grad

Graph.node_list[y_id::-1]將計算圖倒序排。

node?是前向傳播時放入計算圖?中的每個tensor。

node.last? 是生成當前tensor的直接父節點。

調用node.grad_fn計算梯度,并反向傳給它的父節點。

grad_fn?其實就是Tensor的求導公式,如:

class pow(BinaryOperator):
'''
冪運算算子,在Tensor類中進行重載

See also
--------
add : 加法算子
'''
def grad_fn(self, node: Tensor, grad: np.ndarray)
if node is self.last[0]:
return (self.data * self.last[1].data / node.data) * grad

return?后的代碼其實就是冪函數求導公式。

假設y=x^2,x?的導數為2x。

5. 更新參數

反向傳播計算梯度后,便可以調用優化器,更新模型參數。

l.backward()
optimizer.step()

本次訓練我們用梯度下降SGD算法優化參數,更新過程如下:

def step(self):
for i in range(len(self.params)):
grad = self.params[i].grad + self.weight_decay * self.params[i].data
self.v[i] *= self.momentum
self.v[i] += self.lr * grad
self.params[i].data -= self.v[i]
if self.nesterov:
self.params[i].data -= self.lr * grad

self.params?是整個網絡的權重,初始化SGD時傳進去的。

step?函數最核心的兩行代碼,self.v[i] += self.lr * grad? 和 self.params[i].data -= self.v[i]?,用當前參數 - 學習速率 * 梯度?更新當前參數。

這是機器學習的基礎內容了,我們應該很熟悉了。

一次模型訓練的完整過程大致就串完了,大家可以設置打印語句,或者通過DEBUG的方式跟蹤每一行代碼的執行過程,這樣可以更了解模型的訓練過程。

責任編輯:武曉燕 來源: 渡碼
相關推薦

2017-12-22 08:47:41

神經網絡AND運算

2022-09-17 09:05:28

3D可視化工具

2018-05-28 13:12:49

深度學習Python神經網絡

2025-06-13 02:55:00

2022-10-17 15:43:14

深度學習回歸模型函數

2025-02-12 13:42:25

2016-12-27 14:24:57

課程筆記神經網絡

2023-04-19 10:17:35

機器學習深度學習

2021-03-29 09:02:24

深度學習預測間隔

2019-05-05 09:46:01

Python代碼神經網絡

2023-02-28 08:00:00

深度學習神經網絡人工智能

2017-08-24 14:55:55

神經網絡synaptic瀏覽器

2022-05-20 11:01:06

模型性能框架

2018-04-08 11:20:43

深度學習

2025-02-19 15:12:17

神經網絡PyTorch大模型

2019-10-16 15:40:27

開源技術 軟件

2020-08-06 10:11:13

神經網絡機器學習算法

2024-10-28 15:30:36

2019-11-22 09:00:00

AI人工智能機器學習

2020-05-28 15:55:06

iPhone神經網絡人工智能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲精品国产a久久久久久 中文字幕一区二区三区四区五区 | 国产91成人 | 色婷婷国产精品综合在线观看 | 亚洲欧美日韩精品 | 欧美激情久久久 | 五月综合激情在线 | 99免费精品 | 澳门永久av免费网站 | 国产精品3区 | 一区二区三区在线 | 九九视频在线观看视频6 | 鲁视频| 午夜影院网站 | 精品国产乱码久久久久久闺蜜 | 高清视频一区二区三区 | 亚洲自拍偷拍av | 亚洲看片| 日日爱视频| 日韩欧美一区二区在线播放 | 国户精品久久久久久久久久久不卡 | 成人午夜免费在线视频 | 中文字幕在线一区 | 一级在线视频 | 91一区二区三区在线观看 | 久久久久综合 | 成人一区av | 91免费视频观看 | 欧美日韩一区二区在线观看 | 久久精品黄色 | 欧美亚洲另类在线 | 亚洲免费网站 | 亚洲成人免费在线 | 成年人精品视频在线观看 | 国产一区在线免费 | 国产91一区二区三区 | 久久精品一区二区 | 欧美在线一区二区三区 | 精品欧美黑人一区二区三区 | 国产精品国产三级国产aⅴ原创 | jav成人av免费播放 | 国产一区二区三区四区在线观看 |