欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

Tensorflow之手写数字识别(一)

程序员文章站 2024-01-22 11:07:04
...

MNIST数据集

1.MNIST数据集的官网:yann.lecun.com
2.下载下来的数据分为两部分:60000行的训练集(mnist.train)和10000行的测试数据集(mnist.test)。
3. 每一张图片包含2828个像素,我们把这一个数组展开成向量,长度是2828=784(二维形状转换为1维向量).因此在MNIST训练数据集中mnist.train.images是一个形状为[60000,784]的张量,第一维度数字用来索引图片,第二个维度数字用来索引每张图片中的像素点。图片里的某个像素的强度值介于0-1之间。(0代表白色,1代表黑色,0-1之间代表灰度)。
Tensorflow之手写数字识别(一)
4. MNIST数据集的标签是0-9的数字,我们要把标签转化为“one-hot vectors".比如数字0表示为:[1,0,0,0,0,0,0,0,0,0],数字3表示为:[0,0,0,1,0,0,0,0,0]
5. mnist.train.labels是一个[60000,10]的数字矩阵。
Tensorflow之手写数字识别(一)

定义神经网络对图片分类

Tensorflow之手写数字识别(一)

softmax函数

Tensorflow之手写数字识别(一)
并不能得到为直观的感受,转换为概率之后会便于找出概率最大的那张图片

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
# 载入数据
mnist = input_data.read_data_sets('MNIST_data',one_hot=True) 
#每个批次的大小,每次训练的时候并不是一次性将所有的图片放入神经网络进行训练。
batch_size = 100 # 一次性以矩阵的形式放入100张图片
# 计算共有多少个批次
n_batch = mnist.train.num_examples // batch_size

# 定义placeholder
x = tf.placeholder(tf.float32,[None, 784]) #本文中None的值是100
y = tf.placeholder(tf.float32,[None, 10])

# 创建一个简单的神经网络
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
prediction = tf.nn.softmax(tf.matmul(x,W)+b)

# 二次代价函数
loss = tf.reduce_mean(tf.square(y - prediction))

# 使用梯度下降法
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)

# 初始化变量
init = tf.global_variables_initializer()

# 结果存放在布尔型列表中
#tf.argmax(y,1)求标签最大的值是在哪个位置(返回索引),1代表按行
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1)) #比较两个参数是不是一样的,返回为true或false
# 求准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) # tf.cast把布尔转换为32位浮点型 true--> 1.0 flase:-->0,tf.reduce_mean求平均获得准确率

# 进行训练
with tf.Session() as sess:
  sess.run(init)
  for epoch in range(21): #迭代21个周期,所有的图片训练21次
    for batch in range(n_batch): #一共有多少个批次,执行一个for代表所有的图片训练了一次
      batch_xs,batch_ys = mnist.train.next_batch(batch_size) #每次获得100张图片,下一次运行的时候再获得接下来的100张图片
      sess.run(train_step,feed_dict={x:batch_xs,y:batch_ys})
    acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})  #测试准确率,用的测试集
    print("iteration"+str(epoch)+",Testing Accuracy"+str(acc)) # 打印当前周期和求得的准确率
output:

Tensorflow之手写数字识别(一)

补充

tf.argmax()
Returns the index with the largest value across axes of a tensor.

A=tf.constant([2,20,30,3,6]) # Constant 1-D Tensor
tf.math.argmax(A) # output 2 as index 2 (A[2]) is maximum in tensor A
B=tf.constant([[2,20,30,3,6],[3,11,16,1,8],[14,45,23,5,27]]) # 3行5列
tf.math.argmax(B,0) # [2, 2, 0, 2, 2] # 返回每一列中数字最大的索引
tf.math.argmax(B,1) # [2, 2, 1] # 返回每一行中数字最大的索引
Args: 
输入 :一个tensor
input: A Tensor. 
必须是一下类型的数据:
 float32, float64, int32, uint8, int16, int8, complex64, int64, qint8, quint8, qint32, bfloat16, uint16, complex128, half, uint32, uint64. 
axis: A Tensor. Must be one of the following types: int32, int64. int32 or int64, must be in the range -rank(input), rank(input)). 
Describes which axis of the input Tensor to reduce across. For vectors, use axis = 0. 
输出类型 output_type: 
An optional tf.DType from: tf.int32, tf.int64. Defaults to tf.int64. name: A name for the operation (optional).
返回 
Returns:A Tensor of type output_type.
##使用方法
import tensorflow as tf
a = [1, 10, 26.9, 2.8, 166.32, 62.3]
b = tf.math.argmax(input = a)
c = tf.keras.backend.eval(b)
# c = 4
# here a[4] = 166.32 which is the largest element of a across axis 0

tf.cast()
作用:Casts a tensor to a new type.
2.0版本:

tf.dtypes.cast(
    x,
    dtype,
    name=None
)

#使用例子:
x = tf.constant([1.8, 2.2], dtype=tf.float32) #将float转为 int型
tf.dtypes.cast(x, tf.int32)  # [1, 2], dtype=tf.int32

总结:

可以修改损失函数、epoch、等使得准去率提高。