Python 实现LeNet网络模型的训练及预测
1.lenet模型训练脚本
整体的训练代码如下,下面我会为大家详细讲解这些代码的意思
import torch import torchvision from torchvision.transforms import transforms import torch.nn as nn from torch.utils.data import dataloader from pytorch.lenet.model import lenet import torch.optim as optim import numpy as np import matplotlib.pyplot as plt transform = transforms.compose( # 将数据集转换成tensor形式 [transforms.totensor(), # 进行标准化,0.5是均值,也是方差,对应三个维度都是0.5 transforms.normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))] ) # 下载完整的数据集时,download=true,第一个为保存的路径,下载完后download要改为false # 为训练集时,train=true,为测试集时,train=false train_set = torchvision.datasets.cifar10('./data', train=true, download=false, transform=transform) # 加载训练集,设置批次大小,是否打乱,number_works是线程数,window不设置为0会报错,linux可以设置非零 train_loader = dataloader(train_set, batch_size=36, shuffle=true, num_workers=0) test_set = torchvision.datasets.cifar10('./data', train=false, download=false, transform=transform) # 设置的批次大小一次性将所有测试集图片传进去 test_loader = dataloader(test_set, batch_size=10000, shuffle=false, num_workers=0) # 迭代测试集的图片数据和标签值 test_img, test_label = next(iter(test_loader)) # cifar10的十个类别名称 classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck') # # ----------------------------显示图片----------------------------------- # def imshow(img, label): # fig = plt.figure() # for i in range(len(img)): # ax = fig.add_subplot(1, len(img), i+1) # nping = img[i].numpy().transpose([1, 2, 0]) # npimg = (nping * 2 + 0.5) # plt.imshow(npimg) # title = '{}'.format(classes[label[i]]) # ax.set_title(title) # plt.axis('off') # plt.show() # # # batch_image = test_img[: 5] # label_img = test_label[: 5] # imshow(batch_image, label_img) # # ---------------------------------------------------------------------- net = lenet() # 定义损失函数,nn.crossentropyloss()自带softmax函数,所以模型的最后一层不需要softmax进行激活 loss_function = nn.crossentropyloss() # 定义优化器,优化网络模型所有参数 optimizer = optim.adam(net.parameters(), lr=0.001) # 迭代五次 for epoch in range(5): # 初始损失设置为0 running_loss = 0 # 循环训练集,从1开始 for step, data in enumerate(train_loader, start=1): inputs, labels = data # 优化器的梯度清零,每次循环都需要清零,否则梯度会无限叠加,相当于增加批次大小 optimizer.zero_grad() # 将图片数据输入模型中 outputs = net(inputs) # 传入预测值和真实值,计算当前损失值 loss = loss_function(outputs, labels) # 损失反向传播 loss.backward() # 进行梯度更新 optimizer.step() # 计算该轮的总损失,因为loss是tensor类型,所以需要用item()取具体值 running_loss += loss.item() # 每500次进行日志的打印,对测试集进行预测 if step % 500 == 0: # torch.no_grad()就是上下文管理,测试时不需要梯度更新,不跟踪梯度 with torch.no_grad(): # 传入所有测试集图片进行预测 outputs = net(test_img) # torch.max()中dim=1是因为结果为(batch, 10)的形式,我们只需要取第二个维度的最大值 # max这个函数返回[最大值, 最大值索引],我们只需要取索引就行了,所以用[1] predict_y = torch.max(outputs, dim=1)[1] # (predict_y == test_label)相同返回true,不相等返回false,sum()对正确率进行叠加 # 因为计算的变量都是tensor,所以需要用item()拿到取值 accuracy = (predict_y == test_label).sum().item() / test_label.size(0) # running_loss/500是计算每一个step的loss,即每一步的损失 print('[%d, %5d] train_loss: %.3f test_accuracy: %.3f' % (epoch+1, step, running_loss/500, accuracy)) running_loss = 0.0 print('finished training!') save_path = 'lenet.pth' # 保存模型,字典形式 torch.save(net.state_dict(), save_path)
(1).下载cifar10数据集
首先要训练一个网络模型,我们需要足够多的图片做数据集,这里我们用的是torchvision.dataset为我们提供的cifar10数据集(更多的数据集可以去pytorch官网查看pytorch官网提供的数据集)
train_set = torchvision.datasets.cifar10('./data', train=true, download=false, transform=transform) test_set = torchvision.datasets.cifar10('./data', train=false, download=false, transform=transform)
这部分代码是下载cifar10,第一个参数是下载数据集后存放的路径,train=true和false对应下载的训练集和测试集,transform是对应的图像增强方式
(2).图像增强
transform = transforms.compose( # 将数据集转换成tensor形式 [transforms.totensor(), # 进行标准化,0.5是均值,也是方差,对应三个维度都是0.5 transforms.normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))] )
这就是简单的图像图像增强,transforms.totensor()将数据集的所有图像转换成tensor, transforms.normalize()是标准化处理,包含两个元组对应均值和标准差,每个元组包含三个元素对应图片的三个维度[channels, height, width],为什么是这样排序,别问,问就是pytorch要求的,顺序不能变,之后会看到transforms.normalize([0.485, 0.406, 0.456], [0.229, 0.224, 0.225])这两组数据,这是官方给出的均值和标准差,之后标准化的时候会经常用到
(3).加载数据集
# 加载训练集,设置批次大小,是否打乱,number_works是线程数,window不设置为0会报错,linux可以设置非零 train_loader = dataloader(dataset=train_set, batch_size=36, shuffle=true, num_workers=0) test_loader = dataloader(dataset=test_set, batch_size=36, shuffle=false, num_workers=0)
这里只简单的设置的四个参数也是比较重要的,第一个就是需要加载的训练集和测试集,shuffle=true表示将数据集打乱,batch_size表示一次性向设备放入36张图片,打包成一个batch,这时图片的shape就会从[3, 32, 32]----》[36, 3, 32, 32],传入网络模型的shape也必须是[none, channels, height, width],none代表一个batch多少张图片,否则就会报错,number_works是代表线程数,window系统必须设置为0,否则会报错,linux系统可以设置非0数
(4).显示部分图像
def imshow(img, label): fig = plt.figure() for i in range(len(img)): ax = fig.add_subplot(1, len(img), i+1) nping = img[i].numpy().transpose([1, 2, 0]) npimg = (nping * 2 + 0.5) plt.imshow(npimg) title = '{}'.format(classes[label[i]]) ax.set_title(title) plt.axis('off') plt.show() batch_image = test_img[: 5] label_img = test_label[: 5] imshow(batch_image, label_img)
这部分代码是显示测试集当中前五张图片,运行后会显示5张拼接的图片
由于这个数据集的图片都比较小都是32x32的尺寸,有些可能也看的不太清楚,图中显示的是真实标签,注:显示图片的代码可能会这个报警(clipping input data to the valid range for imshow with rgb data ([0…1] for floats or [0…255] for integers).),警告解决的方法:将图片数组转成uint8类型即可,即 plt.imshow(npimg.astype(‘uint8'),但是那样显示出来的图片会变,所以暂时可以先不用管。
(5).初始化模型
数据图片处理完了,下面就是我们的正式训练过程
net = lenet() # 定义损失函数,nn.crossentropyloss()自带softmax函数,所以模型的最后一层不需要softmax进行激活 loss_function = nn.crossentropyloss() # 定义优化器,优化模型所有参数 optimizer = optim.adam(net.parameters(), lr=0.001)
首先初始化lenet网络,定义交叉熵损失函数,以及adam优化器,关于注释写的,我们可以ctrl+鼠标左键查看crossentropyloss(),翻到crossentropyloss类,可以看到注释写的这个标准包含logsoftmax函数,所以搭建letnet模型的最后一层没有使用softmax激活函数
(6).训练模型及保存模型参数
for epoch in range(5): # 初始损失设置为0 running_loss = 0 # 循环训练集,从1开始 for step, data in enumerate(train_loader, start=1): inputs, labels = data # 优化器的梯度清零,每次循环都需要清零,否则梯度会无限叠加,相当于增加批次大小 optimizer.zero_grad() # 将图片数据输入模型中得到输出 outputs = net(inputs) # 传入预测值和真实值,计算当前损失值 loss = loss_function(outputs, labels) # 损失反向传播 loss.backward() # 进行梯度更新(更新w,b) optimizer.step() # 计算该轮的总损失,因为loss是tensor类型,所以需要用item()取到值 running_loss += loss.item() # 每500次进行日志的打印,对测试集进行测试 if step % 500 == 0: # torch.no_grad()就是上下文管理,测试时不需要梯度更新,不跟踪梯度 with torch.no_grad(): # 传入所有测试集图片进行预测 outputs = net(test_img) # torch.max()中dim=1是因为结果为(batch, 10)的形式,我们只需要取第二个维度的最大值,第二个维度是包含十个类别每个类别的概率的向量 # max这个函数返回[最大值, 最大值索引],我们只需要取索引就行了,所以用[1] predict_y = torch.max(outputs, dim=1)[1] # (predict_y == test_label)相同返回true,不相等返回false,sum()对正确结果进行叠加,最后除测试集标签的总个数 # 因为计算的变量都是tensor,所以需要用item()拿到取值 accuracy = (predict_y == test_label).sum().item() / test_label.size(0) # running_loss/500是计算每一个step的loss,即每一步的损失 print('[%d, %5d] train_loss: %.3f test_accuracy: %.3f' % (epoch+1, step, running_loss/500, accuracy)) running_loss = 0.0 print('finished training!') save_path = 'lenet.pth' # 保存模型,字典形式 torch.save(net.state_dict(), save_path)
这段代码注释写的很清楚,大家仔细看就能看懂,流程不复杂,多看几遍就能理解,最后再对训练好的模型进行保存就好了(* ̄︶ ̄)
2.预测脚本
上面已经训练好了模型,得到了lenet.pth参数文件,预测就很简单了,可以去网上随便找一张数据集包含的类别图片,将模型参数文件载入模型,通过对图像进行一点处理,喂入模型即可,下面奉上代码:
import torch import numpy as np import torchvision.transforms as transforms from pil import image from pytorch.lenet.model import lenet classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck') transforms = transforms.compose( # 对数据图片调整大小 [transforms.resize([32, 32]), transforms.totensor(), transforms.normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))] ) net = lenet() # 加载预训练模型 net.load_state_dict(torch.load('lenet.pth')) # 网上随便找的猫的图片 img_path = '../../photo/cat2.jpg' img = image.open(img_path) # 图片的处理 img = transforms(img) # 增加一个维度,(channels, height, width)------->(batch, channels, height, width),pytorch要求必须输入这样的shape img = torch.unsqueeze(img, dim=0) with torch.no_grad(): output = net(img) # dim=1,只取[batch, 10]中10个类别的那个维度,取预测结果的最大值索引,并转换为numpy类型 prediction1 = torch.max(output, dim=1)[1].data.numpy() # 用softmax()预测出一个概率矩阵 prediction2 = torch.softmax(output, dim=1) # 得到概率最大的值得索引 prediction2 = np.argmax(prediction2) # 两种方式都可以得到最后的结果 print(classes[int(prediction1)]) print(classes[int(prediction2)])
反正我最后预测出来结果把猫识别成了狗,还有90.01%的概率,就离谱哈哈哈,但也说明了lenet这个网络模型确实很浅,特征提取的不够深,才会出现这种。
到此这篇关于python 实现lenet网络模型的训练及预测的文章就介绍到这了,更多相关lenet网络模型训练及预测内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!