# MNIST_demo **Repository Path**: Anthony_Bridge/mnist_demo ## Basic Information - **Project Name**: MNIST_demo - **Description**: 学习神经网络MNIST手写数字图片识别的记录仓库,也作为一个小白入坑教程 - **Primary Language**: Unknown - **License**: MulanPSL-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2024-10-20 - **Last Updated**: 2024-10-20 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 神经网络入门-MNIST手写数字识别 ## 简介 目前正在学习神经网络的相关知识,决定从MNIST手写数字识别开始入坑神经网络。
本项目中记录了我在学习该项目过程中的一点简介以及对于代码的解释,同样入坑的小白可以把本项目作为入坑的开始,项目完全是以小白视角开始的(因为我也是小白),所以对于新手来说(完全不了解神经网络的新手)也能浅入深出地实现神经网络应用的入门。 ## 本项目要干啥? 从“神经网络入门-MNIST手写数字识别”题目来看,本项目就是要实现使用神经网络识别一个手写数字的图片,并准确给出所写的数字。MNIST为数据集名称,是机器学习领域中非常经典的一个数据集,由60000个训练样本和10000个测试样本组成,每个样本都是一张28*28像素的灰度手写数字图片。数据集中需要识别的图片大概长这个样子: ## 神经网络是啥? 相信大家应该都知道神经网络大概是个什么东西,如果不清除,建议搜索一下“神经网络”或者问问GPT,或者从这一篇博文里面了解一下。https://zhuanlan.zhihu.com/p/377513272 ## 让我们正式开始学习本项目吧 本项目编写的时候,所使用的python版本为3.10.15,需要使用torch,matplotlib,numpy库
本文档由项目源码中MNIST.ipynb文件转换而来,可以之间再jupyter中查看该文件;源码文件为MNIST_demo.py
首先我们引入一些包,这些包都会用到 ```python import torch import numpy as np from matplotlib import pyplot as plt from torch.utils.data import DataLoader from torchvision import transforms from torchvision import datasets ``` 然后设置一些超参数 ```python # 超参数设置 batch_size = 64 # 每一批送入的样本数量 learning_rate = 0.01 # 学习率 momentum = 0.5 # 冲量,对梯度下降法的一种优化 EPOCH = 10 # 训练轮数 ``` transforms.Compose为设定一套操作顺序,即输入的数据依次进行transforms.ToTensor()和transforms.Normalize((0.1307,), (0.3081,))两个操作。
其中transforms.ToTensor()表示将PILImage格式获numpy.array格式数据转化为张量形式,并且该操作会自动将图片中通道值除以255
transforms.Normalize对数据进行归一化,第一个参数传入平均值mean,第二个传入标准差std,这里对数据 x = (x - mean)/std,0.1307和0.3081是mnist数据集的均值和标准差,是预先计算的 ```python transform = transforms.Compose( [ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ] ) ``` MNIST已经被包括在torchvision.datasets之中了,所以不需要提前下载到本地,直接在程序中下载就可以 ```python # 加载数据集和测试集,加载或下载位置,是否为训练集,是否需要下载,数据变换的处理 train_dataset = datasets.MNIST(root='./datasets/MNIST', train=True, download=True, transform=transform) test_dataset = datasets.MNIST(root='./datasets/MNIST', train=False, download=True, transform=transform) # train=True训练集,=False测试集 # 自动将输入的数据集按照batch_size进行分割,储存为多个张量,shuffle是否表示需要在每个epoch的时候打乱顺序乱序,true表示打乱,默认false train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True) test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False) ``` 我们先查看数据集中一部分代码 ```python # 显示一部分图片 fig = plt.figure() for i in range(12): plt.subplot(3, 4, i+1) plt.tight_layout() plt.imshow(train_dataset.train_data[i], cmap='gray', interpolation='none') plt.title("Labels: {}".format(train_dataset.train_labels[i])) plt.xticks([]) plt.yticks([]) plt.show() ``` 这里能看到先显示了MNIST数据集中的部分图片和标签。
下面,我们正式开始搭建我们的神经网络,网络的代码如下。
在这里我们需要关注的其实只是__init__函数中的self.conv1,self.conv2,self.fc
self.conv1和self.conv2分别表示第一个和第二个卷积层,self.fc表示全连接层,输入的数据会依次经过两个卷积层和一个全连接层输出
```python class Net(torch.nn.Module): def __init__(self): super(Net, self).__init__() # 该例子中,输入的是一个单通道的图像, 高宽均为28,维度为batch*1*28*28 self.conv1 = torch.nn.Sequential( # 通道数从1->10,维度为 batch*10*(height - (kernel_size1 - 1))*(weight - (kernel_size1 - 1)) # 在该例子中,经过Conv2d卷积之后,维度变为了 batch*10*24*24 torch.nn.Conv2d(1, 10, kernel_size=5), torch.nn.ReLU(), # 激活函数 # 在该例子中,经过池化后,维度变成了 batch*10*12*12 torch.nn.MaxPool2d(kernel_size=2), # 通道数不变,高宽变为一半,维度为 batch*10*((height - (kernel_size1 - 1))/2)*((weight - (kernel_size1 - 1)/2) ) self.conv2 = torch.nn.Sequential( # 通道数从10->20,维度 batch*20*((height - (kernel_size1 - 1))/2) - (kernel_size2 - 1)*((weight - (kernel_size1 - 1))/2) - (kernel_size2 - 1) # 在该例子中,再次经过卷积后,维度变成了 batch*20*8*8 torch.nn.Conv2d(10, 20, kernel_size=5), torch.nn.ReLU(), # 激活函数 # 通道数不变,高宽再变为一半,维度为 batch*20*(((height - (kernel_size1 - 1))/2) - (kernel_size2 - 1))/2*(((weight - (kernel_size1 - 1))/2) - (kernel_size2 - 1))/2 # 在该例子中,再次经过池化后,维度变成了 batch*20*4*4 torch.nn.MaxPool2d(kernel_size=2), ) self.fc = torch.nn.Sequential( # 这一步输入的维度为(batch,320),经过下面两步后,维度变成(batch,10) torch.nn.Linear(320, 50), torch.nn.Linear(50, 10), ) def forward(self, x): batch_size = x.size(0) # 一层卷积层,一层池化层,一层激活层(图是先卷积后激活再池化,差别不大) x = self.conv1(x) # 再来一次 x = self.conv2(x) # view函数的操作是把矩阵自动变换为某个维度,比如view(x,y)这里将矩阵自动变换为x*y,-1表示自适应 # flatten 变成全连接网络需要的输入 (batch,20,4,4) ==> (batch,320), 因为经过卷积之后维度为batch*20*4*4 # 所以这里-1自适应为320,并且,矩阵维度降低到2维 x = x.view(batch_size, -1) # 获取输出 x = self.fc(x) return x ``` ```python model = Net() criterion = torch.nn.CrossEntropyLoss() # 交叉熵损失 # 随机梯度下降法,momentum冲量0-1之间,>0的时候,算法会考虑之前的梯度,有利于收敛 # lr 学习率,每次更新的步长,如果太大会震荡,太小收敛慢 optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate, momentum=momentum) # lr学习率,momentum冲量 ``` 训练代码 ```python # 训练 def train(epoch): running_loss = 0.0 running_total = 0 running_correct = 0 # batch_idx获取索引,data具体的数据,0表示索引从0开始 for batch_idx, data in enumerate(train_loader, 0): inputs, target = data # 梯度归零 optimizer.zero_grad() # 这一步调用了nn.Module中的__call__ : Callable[..., Any] = _call_impl # 执行_call_impl函数,会依次执行forward_pre_hook,forward,forward_hook,backward_hook多个函数 # 其中包括forward,并且这里不能直接写model.forward # 这里返回了一个2维张量,维度为batch*10,共有10列,每一列代表归属某一类的预测得分 outputs = model(inputs) # 计算损失,返回的结果是标量(0维张量) loss = criterion(outputs, target) # 反向传播,反向遍历计算图,链式法则完成,获得每个参数的梯度值 loss.backward() # 通过梯度下降更新参数 optimizer.step() # item表示获取具体的数值 running_loss += loss.item() # dim=1表示输出所在行的最大值,dim=0表示输出所在列的最大值 # outputs.data表示获取输出张量的原始数据(即张量本身),不涉及梯度,但是在新版本的torch中,可以直接使用outputs,.data操作已经给过时 _, predicted = torch.max(outputs.data, dim = 1) # 总预测数量,输入张量的行的数量,这里感觉是batch_size running_total += inputs.shape[0] # 预测正确的数量和 running_correct += (predicted == target).sum().item() # 每300次计算一次平均损失和准确率 if batch_idx % 300 == 299: print('[%d, %5d]: loss: %.3f , acc: %.2f %%' % (epoch + 1, batch_idx + 1, running_loss / 300, 100 * running_correct / running_total)) running_loss = 0.0 running_total = 0 running_correct = 0 ``` 测试 ```python # 测试 def test(): correct = 0 total = 0 # 不用计算梯度 # with语句表示在运行过程中不管是否异常都执行清理操作,释放资源 with torch.no_grad(): for data in test_loader: images, labels = data outputs = model(images) _, predicted = torch.max(outputs.data, dim=1) total += labels.size(0) correct += (predicted == labels).sum().item() acc = correct / total print('[%d / %d]: Accuracy on test set: %.1f %% ' % (epoch+1, EPOCH, 100 * acc)) # 求测试的准确率,正确数/总数 return acc ``` 主函数,运行后自动开始训练,并在完成后显示训练结果 ```python # 主函数 if __name__ == "__main__": acc_list_test = [] for epoch in range(0, EPOCH): train(epoch) acc_test = test() acc_list_test.append(acc_test) plt.plot(acc_list_test) plt.xlabel('Epoch') plt.ylabel('Accuracy On TestSet') plt.show() ``` [1, 300]: loss: 0.803 , acc: 76.48 % [1, 600]: loss: 0.212 , acc: 93.87 % [1, 900]: loss: 0.149 , acc: 95.47 % [1 / 10]: Accuracy on test set: 95.9 % [2, 300]: loss: 0.124 , acc: 96.19 % [2, 600]: loss: 0.103 , acc: 96.86 % [2, 900]: loss: 0.095 , acc: 97.28 % [2 / 10]: Accuracy on test set: 97.4 % [3, 300]: loss: 0.086 , acc: 97.35 % [3, 600]: loss: 0.082 , acc: 97.50 % [3, 900]: loss: 0.077 , acc: 97.55 % [3 / 10]: Accuracy on test set: 98.2 % [4, 300]: loss: 0.070 , acc: 97.79 % [4, 600]: loss: 0.067 , acc: 97.97 % [4, 900]: loss: 0.067 , acc: 97.89 % [4 / 10]: Accuracy on test set: 98.4 % [5, 300]: loss: 0.060 , acc: 98.22 % [5, 600]: loss: 0.059 , acc: 98.15 % [5, 900]: loss: 0.058 , acc: 98.21 % [5 / 10]: Accuracy on test set: 97.6 % [6, 300]: loss: 0.050 , acc: 98.44 % [6, 600]: loss: 0.051 , acc: 98.50 % [6, 900]: loss: 0.057 , acc: 98.33 % [6 / 10]: Accuracy on test set: 98.5 % [7, 300]: loss: 0.048 , acc: 98.58 % [7, 600]: loss: 0.050 , acc: 98.59 % [7, 900]: loss: 0.045 , acc: 98.61 % [7 / 10]: Accuracy on test set: 98.6 % [8, 300]: loss: 0.040 , acc: 98.68 % [8, 600]: loss: 0.044 , acc: 98.63 % [8, 900]: loss: 0.046 , acc: 98.60 % [8 / 10]: Accuracy on test set: 98.7 % [9, 300]: loss: 0.036 , acc: 98.86 % [9, 600]: loss: 0.042 , acc: 98.68 % [9, 900]: loss: 0.043 , acc: 98.62 % [9 / 10]: Accuracy on test set: 98.6 % [10, 300]: loss: 0.040 , acc: 98.82 % [10, 600]: loss: 0.034 , acc: 98.94 % [10, 900]: loss: 0.038 , acc: 98.90 % [10 / 10]: Accuracy on test set: 98.9 % 至此,已经完成了手写数字模型的训练,但是这里没有进行模型的保存和测试,这一部分内容请参考“中文手写数字识别仓库”,这个仓库将会根据本项目的代码,从本地加载中文手写数字的数据集,训练一个神经网络模型并保存到本地,最后使用该模型对输入的图片进行推理。