# MNIST **Repository Path**: wittpeng/MNIST ## Basic Information - **Project Name**: MNIST - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2019-08-26 - **Last Updated**: 2020-12-19 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # MNIST 本项目学自《21个项目玩转深度学习》 #### MNIST数据集 - train-images-idx3-ubyte.gz 训练图像数据(60000张) - train-lables-idx1-ubyte.gz 训练图像的标签 - t10k-images-idx3-ubyte.gz 测试图像数据(10000张) - t10k-labels-idx1-ubyte.gz 测试图像的标签 #### 使用说明 - 下载数据并预览 ``` python download.py ``` 输出: (55000, 784) (55000, 10) (5000, 784) (5000, 10) (10000, 784) (10000, 10) - 读取MINIST数据集,并保存为图片 ``` python image_save_pic.py ``` - 图像标签的独热标签 ``` python label.py ``` - TensorFlow(Softmax回归)识别MNIST Softmax回归:函数主要功能是将不代表概率的打分值化成0~1之间的概率值 假设x是单个样本的特征,W、b是 Softmax 模型的参数。在 MNIST 数据集中,x就代表输入图片,它是一个 784 维的向量,而 W是一个矩阵,它的形状为(784, 10),b 是一个 10 维的向量,10 代表的是类别数。Softmax 模型的第一步是通过下面的公式计算各个类别的 Logit: Logit = $w^T$x+ b Logit 同样是一个 10 维的向量,实际上可以看成样本对应于各个类别的“打分” 。接下来使用 Softmax 函数将包转换成备个类别的概率值: y = Softmax(Logit) ``` python softmax_regression.py ``` - TensorFlow(两层卷积神经网络)识别MNIST