成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

突破Pytorch核心點,優化器 !!

人工智能 深度學習
選擇合適的優化器是深度學習模型調優中的一個關鍵決策,能夠顯著影響模型的性能和訓練效率。

嗨,我是小壯!

今兒咱們聊聊Pytorch中的優化器。

優化器在深度學習中的選擇直接影響模型的訓練效果和速度。不同的優化器適用于不同的問題,其性能的差異可能導致模型更快、更穩定地收斂,或者在某些任務上表現更好。

因此,選擇合適的優化器是深度學習模型調優中的一個關鍵決策,能夠顯著影響模型的性能和訓練效率。

PyTorch本身提供了許多優化器,用于訓練神經網絡時更新模型的權重。

常見優化器

咱們先列舉PyTorch中常用的優化器,以及簡單介紹:

(1) SGD (Stochastic Gradient Descent)

隨機梯度下降是最基本的優化算法之一。它通過計算損失函數關于權重的梯度,并沿著梯度的負方向更新權重。

optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

(2) Adam

Adam是一種自適應學習率的優化算法,結合了AdaGrad和RMSProp的思想。它能夠自適應地為每個參數計算不同的學習率。

optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)

(3) Adagrad

Adagrad是一種自適應學習率的優化算法,根據參數的歷史梯度調整學習率。但由于學習率逐漸減小,可能導致訓練過早停止。

optimizer = torch.optim.Adagrad(model.parameters(), lr=learning_rate)

(4) RMSProp

RMSProp也是一種自適應學習率的算法,通過考慮梯度的滑動平均來調整學習率。

optimizer = torch.optim.RMSprop(model.parameters(), lr=learning_rate)

(5) Adadelta

Adadelta是一種自適應學習率的優化算法,是RMSProp的改進版本,通過考慮梯度的移動平均和參數的移動平均來動態調整學習率。

optimizer = torch.optim.Adadelta(model.parameters(), lr=learning_rate)

一個完整案例

在這里,咱們聊聊如何使用PyTorch訓練一個簡單的卷積神經網絡(CNN)來進行手寫數字識別。

這個案例使用的是MNIST數據集,并使用Matplotlib庫繪制了損失曲線和準確率曲線。

import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt

# 設置隨機種子
torch.manual_seed(42)

# 定義數據轉換
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])

# 下載和加載MNIST數據集
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)

train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=1000, shuffle=False)

# 定義簡單的卷積神經網絡模型
class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.conv1 = nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1)
        self.relu = nn.ReLU()
        self.pool = nn.MaxPool2d(kernel_size=2, stride=2)
        self.conv2 = nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1)
        self.fc1 = nn.Linear(64 * 7 * 7, 128)
        self.fc2 = nn.Linear(128, 10)

    def forward(self, x):
        x = self.conv1(x)
        x = self.relu(x)
        x = self.pool(x)
        x = self.conv2(x)
        x = self.relu(x)
        x = self.pool(x)
        x = x.view(-1, 64 * 7 * 7)
        x = self.fc1(x)
        x = self.relu(x)
        x = self.fc2(x)
        return x

# 創建模型、損失函數和優化器
model = CNN()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 訓練模型
num_epochs = 5
train_losses = []
train_accuracies = []

for epoch in range(num_epochs):
    model.train()
    total_loss = 0.0
    correct = 0
    total = 0

    for inputs, labels in train_loader:
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        total_loss += loss.item()
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

    accuracy = correct / total
    train_losses.append(total_loss / len(train_loader))
    train_accuracies.append(accuracy)
    print(f"Epoch {epoch+1}/{num_epochs}, Loss: {train_losses[-1]:.4f}, Accuracy: {accuracy:.4f}")

# 繪制損失曲線和準確率曲線
plt.figure(figsize=(10, 5))
plt.subplot(1, 2, 1)
plt.plot(train_losses, label='Training Loss')
plt.title('Training Loss')
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.legend()

plt.subplot(1, 2, 2)
plt.plot(train_accuracies, label='Training Accuracy')
plt.title('Training Accuracy')
plt.xlabel('Epoch')
plt.ylabel('Accuracy')
plt.legend()

plt.tight_layout()
plt.show()

# 在測試集上評估模型
model.eval()
correct = 0
total = 0

with torch.no_grad():
    for inputs, labels in test_loader:
        outputs = model(inputs)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

accuracy = correct / total
print(f"Accuracy on test set: {accuracy * 100:.2f}%")

上述代碼中,我們定義了一個簡單的卷積神經網絡(CNN),使用交叉熵損失和Adam優化器進行訓練。

在訓練過程中,我們記錄了每個epoch的損失和準確率,并使用Matplotlib庫繪制了損失曲線和準確率曲線。

我是小壯,下期見!

責任編輯:趙寧寧 來源: DOWHAT小壯
相關推薦

2024-01-03 10:23:11

卷積神經網絡CNNpytorch

2024-01-08 08:31:26

PyTorch深度學習自動求導

2024-01-04 12:52:00

pytorch函數神經網絡

2024-01-02 15:55:27

深度學習模型pytorch

2024-01-05 17:15:21

pytorchtensor深度學習

2012-11-22 10:35:11

網絡優化

2012-03-25 16:30:09

IT管理云計算Gen8服務器

2018-08-06 18:29:17

智慧物聯網人工智能

2011-05-23 18:39:13

網站內容優化

2011-05-30 16:44:06

SEO

2017-03-23 07:52:13

AR增強現實蘋果

2017-03-08 10:06:11

Java技術點注解

2024-01-25 16:19:27

2011-06-24 16:26:20

SEO

2017-01-15 15:13:37

Android性能優化優化點

2023-05-22 14:52:51

人工智能卡點

2015-08-05 11:32:10

2021-07-19 11:56:56

分布式訓練框架

2024-11-11 08:00:00

PyTorch深度學習

2010-04-23 14:48:26

Oracle性能優化
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人欧美一区二区三区在线观看 | 青青久草| 成人a视频| 日本三级电影免费 | 国产精品精品视频一区二区三区 | 精品久久久久久久久久久下田 | 日本精品一区二区三区在线观看视频 | 国产伦精品一区二区三区高清 | 国产精品成人一区二区 | 精品一二区 | 国产三级精品三级在线观看四季网 | 精品国产31久久久久久 | 久久久久国产精品 | 日韩精品一区二区三区在线播放 | 亚洲激情av | 一区二区高清 | 欧美区日韩区 | 超碰男人天堂 | 91视频日本| 亚洲欧美日韩久久 | 大学生a级毛片免费视频 | 一区二区三区国产在线观看 | 欧美久久一区二区三区 | 国产乱码精品一区二区三区五月婷 | 久久精品国产亚洲 | 一区在线观看 | 99久久婷婷国产综合精品电影 | 99久久免费精品 | 精品日韩一区 | 国产精品久久久久久久久久久新郎 | 国产精品www | 国产精品免费播放 | 欧美日韩一区二区三区四区五区 | 秋霞在线一区 | 日韩免费视频 | 美女国产 | 午夜影院在线观看版 | 日本一区二区不卡 | 天天综合成人网 | 色橹橹欧美在线观看视频高清 | 成人国产精品久久久 |