12 使用PyTorch构建你的第一个模型

在上一篇我们讨论了常用的深度学习框架之一——Keras,它因其简洁的API和即插即用的特性,使得模型构建变得轻松。不过,对于一些更为复杂的任务或需要更高灵活性的项目,PyTorch无疑是一个非常优秀的选择。本篇教程,我们将围绕PyTorch的基本知识,带你实践构建一个简单的深度学习模型。

PyTorch简介

PyTorch是一个开源的深度学习框架,由Facebook的人工智能研究小组开发。它提供了灵活的动态计算图和简洁的API,非常适合研究和实验。PyTorch的主要特点包括:

  • 动态图(Dynamic Computation Graph):允许你在运行时更改网络结构,这对需要频繁调试的研究者尤为重要。
  • 强大的GPU支持PyTorch能够利用GPU加速计算,使得大规模数据处理和训练更加高效。
  • 社区活跃:有大量的教程和开源项目,便于学习和探索。

PyTorch基础

在开始构建模型之前,我们需要先安装PyTorch。可以通过以下命令进行安装:

1
pip install torch torchvision torchaudio

创建张量

PyTorch中,最基本的构建单元是张量(Tensor)。张量可以看作是一个多维数组,与NumPy的数组类似。

1
2
3
4
5
6
7
8
9
import torch

# 创建一个1维张量
tensor_1d = torch.tensor([1, 2, 3, 4, 5])
print(tensor_1d)

# 创建一个2维张量
tensor_2d = torch.tensor([[1, 2, 3], [4, 5, 6]])
print(tensor_2d)

构建简单的神经网络

接下来,我们将构建一个简单的全连接神经网络,这个网络将用于解决分类问题。例如,我们将使用MNIST手写数字识别数据集进行演示。

创建一个神经网络的基本步骤如下:

  1. 定义模型结构
  2. 定义损失函数
  3. 定义优化器
  4. 训练模型

定义模型

我们将创建一个包含两个全连接层的简单神经网络。可以使用torch.nn模块来定义模型。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
import torch.nn as nn

class SimpleNN(nn.Module):
def __init__(self):
super(SimpleNN, self).__init__()

# 定义网络层
self.fc1 = nn.Linear(28 * 28, 128) # 输入层
self.fc2 = nn.Linear(128, 10) # 输出层

def forward(self, x):
x = x.view(-1, 28 * 28) # 将输入展平
x = torch.relu(self.fc1(x)) # 激活函数
x = self.fc2(x)
return x

# 创建模型实例
model = SimpleNN()

定义损失函数和优化器

接下来,我们选择交叉熵损失作为损失函数,并使用Adam优化器。

1
2
3
4
import torch.optim as optim

criterion = nn.CrossEntropyLoss() # 损失函数
optimizer = optim.Adam(model.parameters(), lr=0.001) # 优化器

训练模型

在训练之前,我们需要准备数据集。可以使用torchvision中的数据集和数据加载器。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
from torchvision import datasets, transforms
from torch.utils.data import DataLoader

# 数据预处理
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])

# 加载MNIST数据集
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
train_loader = DataLoader(dataset=train_dataset, batch_size=64, shuffle=True)

# 训练模型
num_epochs = 5
for epoch in range(num_epochs):
for images, labels in train_loader:
optimizer.zero_grad() # 清除梯度
output = model(images) # 前向传播
loss = criterion(output, labels) # 计算损失
loss.backward() # 反向传播
optimizer.step() # 更新参数

print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

测试模型

训练完模型后,可以评估其性能。这里我们仅举个简单的例子。

1
# 测试代码略

小结

通过本篇教程,我们学习了PyTorch的基本用法,并构建了一个简单的神经网络,以解决手写数字识别问题。与上一篇中的Keras相比,PyTorch提供了更大的灵活性和控制力,非常适合科研和复杂任务。

在下一篇教程中,我们将深入探讨数据预处理,包括数据清洗与准备,这对于模型训练至关重要。希望大家能够继续跟随系列教程,逐步掌握深度学习的技巧与知识!

12 使用PyTorch构建你的第一个模型

https://zglg.work/deep-learning-zero/12/

作者

IT教程网(郭震)

发布于

2024-08-10

更新于

2024-08-10

许可协议

分享转发

交流

更多教程加公众号

更多教程加公众号

加入星球获取PDF

加入星球获取PDF

打卡评论