哈嘍,大家好。
今天給大家分享一個非常牛逼的開源項目,用Numpy?開發了一個深度學習框架,語法與 Pytorch 基本一致。

今天以一個簡單的卷積神經網絡為例,分析神經網絡訓練過程中,涉及的前向傳播、反向傳播、參數優化等核心步驟的源碼。
使用的數據集和代碼已經打包好,文末有獲取方式。
1. 準備工作
先準備好數據和代碼。
1.1 搭建網絡
首先,下載框架源碼,地址:https://github.com/duma-repo/PyDyNet
git clone https://github.com/duma-repo/PyDyNet.git
搭建LeNet卷積神經網絡,訓練三分類模型。

在PyDyNet目錄直接創建代碼文件即可。
from pydynet import nn
class LeNet(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(1, 6, kernel_size=5, padding=2)
self.conv2 = nn.Conv2d(6, 16, kernel_size=5)
self.avg_pool = nn.AvgPool2d(kernel_size=2, stride=2, padding=0)
self.sigmoid = nn.Sigmoid()
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 3)
def forward(self, x):
x = self.conv1(x)
x = self.sigmoid(x)
x = self.avg_pool(x)
x = self.conv2(x)
x = self.sigmoid(x)
x = self.avg_pool(x)
x = x.reshape(x.shape[0], -1)
x = self.fc1(x)
x = self.sigmoid(x)
x = self.fc2(x)
x = self.sigmoid(x)
x = self.fc3(x)
return x
可以看到,網絡的定義與Pytorch語法完全一樣。
我提供的源代碼里,提供了 summary 函數可以打印網絡結構。
1.2 準備數據
訓練數據使用Fanshion-MNIST數據集,它包含10個類別的圖片,每個類別 6k 張。

為了加快訓練,我只抽取了前3個類別,共1.8w張訓練圖片,做一個三分類模型。
1.3 模型訓練
import pydynet
from pydynet import nn
from pydynet import optim
lr, num_epochs = 0.9, 10
optimizer = optim.SGD(net.parameters(),
lr=lr)
loss = nn.CrossEntropyLoss()
for epoch in range(num_epochs):
net.train()
for i, (X, y) in enumerate(train_iter):
optimizer.zero_grad()
y_hat = net(X)
l = loss(y_hat, y)
l.backward()
optimizer.step()
with pydynet.no_grad():
metric.add(l.numpy() * X.shape[0],
accuracy(y_hat, y),
X.shape[0])
訓練代碼也跟Pytorch一樣。
下面重點要做的就是深入模型訓練的源碼,來學習模型訓練的原理。
2. train、no_grad和eval
模型開始訓練前,會調用net.train。
def train(self, mode: bool = True):
set_grad_enabled(mode)
self.set_module_state(mode)
可以看到,它會將grad?(梯度)設置成True?,之后創建的Tensor?是可以帶梯度的。Tensor帶上梯度后,便會將其放入計算圖中,等待求導計算梯度。
而下面的with no_grad(): 代碼
class no_grad:
def __enter__(self) -> None:
self.prev = is_grad_enable()
set_grad_enabled(False)
會將grad?(梯度)設置成False?,這樣之后創建的Tensor不會放到計算圖中,自然也不需要計算梯度,可以加快推理。
我們經常在Pytorch?中看到net.eval()的用法,我們也順便看一下它的源碼。
def eval(self):
return self.train(False)
可以看到,它直接調用train(False)?來關閉梯度,效果與no_grad()類似。
所以,一般在訓練前調用train?打開梯度。訓練后,調用eval關閉梯度,方便快速推理。
3. 前向傳播
前向傳播除了計算類別概率外,最最重要的一件事是按照前傳順序,將網絡中的 tensor? 組織成計算圖,目的是為了反向傳播時計算每個tensor的梯度。
tensor在神經網絡中,不止用來存儲數據,還用計算梯度、存儲梯度。
以第一層卷積操作為例,來查看如何生成計算圖。
def conv2d(x: tensor.Tensor,
kernel: tensor.Tensor,
padding: int = 0,
stride: int = 1):
'''二維卷積函數
'''
N, _, _, _ = x.shape
out_channels, _, kernel_size, _ = kernel.shape
pad_x = __pad2d(x, padding)
col = __im2col2d(pad_x, kernel_size, stride)
out_h, out_w = col.shape[-2:]
col = col.transpose(0, 4, 5, 1, 2, 3).reshape(N * out_h * out_w, -1)
col_filter = kernel.reshape(out_channels, -1).T
out = col @ col_filter
return out.reshape(N, out_h, out_w, -1).transpose(0, 3, 1, 2)
x?是輸入的圖片,不需要記錄梯度。kernel是卷積核的權重,需要計算梯度。
所以,pad_x = __pad2d(x, padding)? 生成的新的tensor也是不帶梯度的,因此也不需要加入計算圖中。
而kernel.reshape(out_channels, -1)?產生的tensor則是需要計算梯度,也需要加入計算圖中。
下面看看加入的過程:
def reshape(self, *new_shape):
return reshape(self, new_shape)
class reshape(UnaryOperator):
'''
張量形狀變換算子,在Tensor中進行重載
Parameters
----------
new_shape : tuple
變換后的形狀,用法同NumPy
'''
def __init__(self, x: Tensor, new_shape: tuple) -> None:
self.new_shape = new_shape
super().__init__(x)
def forward(self, x: Tensor)
return x.data.reshape(self.new_shape)
def grad_fn(self, x: Tensor, grad: np.ndarray)
return grad.reshape(x.shape)
reshape?函數會返回一個reshape?類對象,reshape?類繼承了UnaryOperator?類,并在__init__函數中,調用了父類初始化函數。
class UnaryOperator(Tensor):
def __init__(self, x: Tensor) -> None:
if not isinstance(x, Tensor):
x = Tensor(x)
self.device = x.device
super().__init__(
data=self.forward(x),
device=x.device,
# 這里 requires_grad 為 True
requires_grad=is_grad_enable() and x.requires_grad,
)
UnaryOperator?類繼承了Tensor?類,所以reshape?對象也是一個tensor。
在UnaryOperator的__init__?函數中,調用Tensor?的初始化函數,并且傳入的requires_grad?參數是True,代表需要計算梯度。
requires_grad?的計算代碼為is_grad_enable() and x.requires_grad,is_grad_enable()?已經被train?設置為True?,而x?是卷積核,它的requires_grad?也是True。
class Tensor:
def __init__(
self,
data: Any,
dtype=None,
device: Union[Device, int, str, None] = None,
requires_grad: bool = False,
) -> None:
if self.requires_grad:
# 不需要求梯度的節點不出現在動態計算圖中
Graph.add_node(self)
最終在Tensor?類的初始化方法中,調用Graph.add_node(self)?將當前tensor加入到計算圖中。
同理,下面使用requires_grad=True的tensor?常見出來的新tensor都會放到計算圖中。
經過一次卷積操作,計算圖中會增加 6 個節點。
4. 反向傳播
一次前向傳播完成后,從計算圖中最后一個節點開始,從后往前進行反向傳播。
l = loss(y_hat, y)
l.backward()
經過前向網絡一層層傳播,最終傳到了損失張量l。
以l?為起點,從前向后傳播,就可計算計算圖中每個節點的梯度。
backward的核心代碼如下:
def backward(self, retain_graph: bool = False):
for node in Graph.node_list[y_id::-1]:
grad = node.grad
for last in [l for l in node.last if l.requires_grad]:
add_grad = node.grad_fn(last, grad)
last.grad += add_grad
Graph.node_list[y_id::-1]將計算圖倒序排。
node?是前向傳播時放入計算圖?中的每個tensor。
node.last? 是生成當前tensor的直接父節點。
調用node.grad_fn計算梯度,并反向傳給它的父節點。
grad_fn?其實就是Tensor的求導公式,如:
class pow(BinaryOperator):
'''
冪運算算子,在Tensor類中進行重載
See also
--------
add : 加法算子
'''
def grad_fn(self, node: Tensor, grad: np.ndarray)
if node is self.last[0]:
return (self.data * self.last[1].data / node.data) * grad
return?后的代碼其實就是冪函數求導公式。
假設y=x^2,x?的導數為2x。
5. 更新參數
反向傳播計算梯度后,便可以調用優化器,更新模型參數。
l.backward()
optimizer.step()
本次訓練我們用梯度下降SGD算法優化參數,更新過程如下:
def step(self):
for i in range(len(self.params)):
grad = self.params[i].grad + self.weight_decay * self.params[i].data
self.v[i] *= self.momentum
self.v[i] += self.lr * grad
self.params[i].data -= self.v[i]
if self.nesterov:
self.params[i].data -= self.lr * grad
self.params?是整個網絡的權重,初始化SGD時傳進去的。
step?函數最核心的兩行代碼,self.v[i] += self.lr * grad? 和 self.params[i].data -= self.v[i]?,用當前參數 - 學習速率 * 梯度?更新當前參數。
這是機器學習的基礎內容了,我們應該很熟悉了。
一次模型訓練的完整過程大致就串完了,大家可以設置打印語句,或者通過DEBUG的方式跟蹤每一行代碼的執行過程,這樣可以更了解模型的訓練過程。