训练分类器
前面的教程中我们已经学习了如何定义神经网络,计算损失并更新网络的权重。接下来,我们完整的训练一个神经网络模型,并测试其性能。
数据集说明
一般来说,当在处理图像,文本,音频或视频数据时,可以使用标准的python
包将数据加载到一个numpy
数组中。然后将这个数组转换成torch.Tensor
。
- 图像的话,可以用
Pillow
,OpenCV
。 - 声音处理可以用
scipy
和librosa
。 - 文本的处理使用原生
Python
或者Cython
以及NLTK
和SpaCy
都可以。 特别是对于图像,PyTorch
创建了一个名为torchvision
的软件包,该软件包具有常用数据集(如Imagenet
,CIFAR10
,MNIST
等)的数据加载器torchvision.datasets
,以及用于图像的数据转换器torch.utils.data.DataLoader
。这提供了巨大的便利并避免了编写样板代码。 本教程使用CIFAR10数据集。 我们要进行的分类的类别有:'airplane', 'automobile', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck'。 这个数据集中的图像都是3通道,32x32像素的图片。
训练一个图像分类器
我们要按顺序做这几个步骤:
- 使用torchvision来读取并预处理CIFAR10数据集
- 定义一个卷积神经网络
- 定义一个代价函数
- 在神经网络中训练训练集数据
- 使用测试集数据测试神经网络
1.加载和归一化CIFAR10
torchvision
加载的数据集的输出是范围[0,1]的PILImage
图像。我们将它们转换为归一化范围[-1,1]的张量。
import torch
import torchvision
import torchvision.transforms as transforms
# torchvision数据集的输出是在[0, 1]范围内的PILImage图片。
# 我们此处使用归一化的方法将其转化为Tensor,数据范围为[-1, 1]
transform = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
#加载训练集数据
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
shuffle=True, num_workers=2)
#加载测试集数据
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=False, num_workers=2)
#分类类别定义
classes = ('plane', 'car', 'bird', 'cat',
'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
代码语言:javascript复制Files already downloaded and verified
Files already downloaded and verified
我们来从中找几张图片看看。
代码语言:javascript复制import matplotlib.pyplot as plt
import numpy as np
#notebook模式下
%matplotlib inline
#显示图片的函数
def imshow(img):
img = img / 2 0.5 # unnormalize
npimg = img.numpy()
plt.imshow(np.transpose(npimg, (1, 2, 0)))
# 获取一些随机的训练图片
dataiter = iter(trainloader)
images, labels = dataiter.next()
# 显示图片
imshow(torchvision.utils.make_grid(images))
# 打印类型
print(' '.join('%5s' % classes[labels[j]] for j in range(4)))
代码语言:javascript复制 deer cat dog ship
2.定义卷积神经网络结构
代码语言:javascript复制import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 5 * 5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
3.定义损失函数和优化器
代码语言:javascript复制import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
4.训练网络
代码语言:javascript复制for epoch in range(2): # 训练集迭代次数
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
# 获取输入和标签
inputs, labels = data
# 梯度初始化置零
optimizer.zero_grad()
# 正向 反向 优化
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# 打印loss值
running_loss = loss.item()
if i % 2000 == 1999: # 每2000个batch打印一次
print('[%d, ]] loss: %.3f' %
(epoch 1, i 1, running_loss / 2000))
running_loss = 0.0
print('Finished Training')
代码语言:javascript复制[1, 2000] loss: 2.199
[1, 4000] loss: 1.887
[1, 6000] loss: 1.707
[1, 8000] loss: 1.614
[1, 10000] loss: 1.536
[1, 12000] loss: 1.504
[2, 2000] loss: 1.449
[2, 4000] loss: 1.411
[2, 6000] loss: 1.372
[2, 8000] loss: 1.349
[2, 10000] loss: 1.325
[2, 12000] loss: 1.306
Finished Training
5.测试网络
我们已经训练了两遍了。 此时需要测试一下到底结果如何。
通过对比神经网络给出的分类和已知的类别结果,可以得出正确与否。如果预测的正确,我们可以将样本加入正确预测的结果的列表中。
好的第一步,让我们展示几张照片来熟悉一下。
代码语言:javascript复制dataiter = iter(testloader)
images, labels = dataiter.next()
# 打印图片
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))
代码语言:javascript复制GroundTruth: cat ship ship plane
现在让我们看看神经网络认为这些例子是什么:
代码语言:javascript复制outputs = net(images)
print(outputs)
代码语言:javascript复制tensor([[-0.4905, -1.5664, 1.0641, 2.4226, 0.1196, 1.9381, 0.9795,
-0.4404, -1.7645, -1.6992],
[ 6.1866, 5.8665, -2.2267, -3.2581, -2.6794, -4.9095, -4.2326,
-5.3548, 6.9980, 2.7097],
[ 1.9322, 3.0127, -1.2481, -1.1180, -1.4086, -1.7913, -1.8129,
-1.9674, 2.3132, 1.7559],
[ 3.6228, 0.1119, 0.6089, -1.5255, -0.5566, -2.7542, -1.1817,
-3.3743, 4.5489, -0.5763]])
输出是10类对应的数值。一个类对应的数值越高,网络认为这个图像就是越接近这个类。那么,让我们得到最高数值对应的类:
代码语言:javascript复制_, predicted = torch.max(outputs, 1)
print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
for j in range(4)))
代码语言:javascript复制Predicted: cat ship car ship
结果看起来挺好。 看看神经网络在整个数据集上的表现结果如何:
代码语言:javascript复制correct = 0
total = 0
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total = labels.size(0)
correct = (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
代码语言:javascript复制Accuracy of the network on the 10000 test images: 54 %
从结果上看,神经网络输出的结果比随机要好,随机选择的话从十个中选择一个出来,准确率大概只有10%。 看上去神经网络学到了点东西。 我们看一下那么到底哪些类别表现良好又是哪些类别不太行呢?
代码语言:javascript复制class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs, 1)
c = (predicted == labels).squeeze()
for i in range(4):
label = labels[i]
class_correct[label] = c[i].item()
class_total[label] = 1
for i in range(10):
print('Accuracy of %5s : - %%' % (
classes[i], 100 * class_correct[i] / class_total[i]))
代码语言:javascript复制Accuracy of plane : 59 %
Accuracy of car : 82 %
Accuracy of bird : 44 %
Accuracy of cat : 44 %
Accuracy of deer : 48 %
Accuracy of dog : 43 %
Accuracy of frog : 59 %
Accuracy of horse : 52 %
Accuracy of ship : 73 %
Accuracy of truck : 40 %
参考
Deep Learning with PyTorch: A 60 Minute Blitz(https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html)