Tensorflow之手写数字识别(一)
程序员文章站
2024-01-22 11:07:04
...
MNIST数据集
1.MNIST数据集的官网:yann.lecun.com
2.下载下来的数据分为两部分:60000行的训练集(mnist.train)和10000行的测试数据集(mnist.test)。
3. 每一张图片包含2828个像素,我们把这一个数组展开成向量,长度是2828=784(二维形状转换为1维向量).因此在MNIST训练数据集中mnist.train.images是一个形状为[60000,784]的张量,第一维度数字用来索引图片,第二个维度数字用来索引每张图片中的像素点。图片里的某个像素的强度值介于0-1之间。(0代表白色,1代表黑色,0-1之间代表灰度)。
4. MNIST数据集的标签是0-9的数字,我们要把标签转化为“one-hot vectors".比如数字0表示为:[1,0,0,0,0,0,0,0,0,0],数字3表示为:[0,0,0,1,0,0,0,0,0]
5. mnist.train.labels是一个[60000,10]的数字矩阵。
定义神经网络对图片分类
softmax函数
并不能得到为直观的感受,转换为概率之后会便于找出概率最大的那张图片
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
# 载入数据
mnist = input_data.read_data_sets('MNIST_data',one_hot=True)
#每个批次的大小,每次训练的时候并不是一次性将所有的图片放入神经网络进行训练。
batch_size = 100 # 一次性以矩阵的形式放入100张图片
# 计算共有多少个批次
n_batch = mnist.train.num_examples // batch_size
# 定义placeholder
x = tf.placeholder(tf.float32,[None, 784]) #本文中None的值是100
y = tf.placeholder(tf.float32,[None, 10])
# 创建一个简单的神经网络
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
prediction = tf.nn.softmax(tf.matmul(x,W)+b)
# 二次代价函数
loss = tf.reduce_mean(tf.square(y - prediction))
# 使用梯度下降法
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
# 初始化变量
init = tf.global_variables_initializer()
# 结果存放在布尔型列表中
#tf.argmax(y,1)求标签最大的值是在哪个位置(返回索引),1代表按行
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1)) #比较两个参数是不是一样的,返回为true或false
# 求准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) # tf.cast把布尔转换为32位浮点型 true--> 1.0 flase:-->0,tf.reduce_mean求平均获得准确率
# 进行训练
with tf.Session() as sess:
sess.run(init)
for epoch in range(21): #迭代21个周期,所有的图片训练21次
for batch in range(n_batch): #一共有多少个批次,执行一个for代表所有的图片训练了一次
batch_xs,batch_ys = mnist.train.next_batch(batch_size) #每次获得100张图片,下一次运行的时候再获得接下来的100张图片
sess.run(train_step,feed_dict={x:batch_xs,y:batch_ys})
acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}) #测试准确率,用的测试集
print("iteration"+str(epoch)+",Testing Accuracy"+str(acc)) # 打印当前周期和求得的准确率
output:
补充
tf.argmax()
Returns the index with the largest value across axes of a tensor.
A=tf.constant([2,20,30,3,6]) # Constant 1-D Tensor
tf.math.argmax(A) # output 2 as index 2 (A[2]) is maximum in tensor A
B=tf.constant([[2,20,30,3,6],[3,11,16,1,8],[14,45,23,5,27]]) # 3行5列
tf.math.argmax(B,0) # [2, 2, 0, 2, 2] # 返回每一列中数字最大的索引
tf.math.argmax(B,1) # [2, 2, 1] # 返回每一行中数字最大的索引
Args:
输入 :一个tensor
input: A Tensor.
必须是一下类型的数据:
float32, float64, int32, uint8, int16, int8, complex64, int64, qint8, quint8, qint32, bfloat16, uint16, complex128, half, uint32, uint64.
axis: A Tensor. Must be one of the following types: int32, int64. int32 or int64, must be in the range -rank(input), rank(input)).
Describes which axis of the input Tensor to reduce across. For vectors, use axis = 0.
输出类型 output_type:
An optional tf.DType from: tf.int32, tf.int64. Defaults to tf.int64. name: A name for the operation (optional).
返回
Returns:A Tensor of type output_type.
##使用方法
import tensorflow as tf
a = [1, 10, 26.9, 2.8, 166.32, 62.3]
b = tf.math.argmax(input = a)
c = tf.keras.backend.eval(b)
# c = 4
# here a[4] = 166.32 which is the largest element of a across axis 0
tf.cast()
作用:Casts a tensor to a new type.
2.0版本:
tf.dtypes.cast(
x,
dtype,
name=None
)
#使用例子:
x = tf.constant([1.8, 2.2], dtype=tf.float32) #将float转为 int型
tf.dtypes.cast(x, tf.int32) # [1, 2], dtype=tf.int32
总结:
可以修改损失函数、epoch、等使得准去率提高。
上一篇: PyTorch(手写数字识别)
下一篇: 秒杀系统架构