欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

基于MNIST手写数字数据集的数字识别小程序

程序员文章站 2022-06-29 12:43:21
30行代码奉上!(MNIST手写数字的识别,识别率大约在91%,简单尝试的一个程序,小玩具而已) 其中x作为输入是一个1x768的向量,然后就是经过权重和偏食,就得到10个输出,然后用softmax()进行预测值的输出。 此外y_作为真值,要用到一个占位符。 主要用到的tensorflow的函数有 ......

30行代码奉上!(mnist手写数字的识别,识别率大约在91%,简单尝试的一个程序,小玩具而已)

 1 import tensorflow.examples.tutorials.mnist.input_data as input_data
 2 import tensorflow as tf
 3 mnist = input_data.read_data_sets('/temp/', one_hot=true)
 4 
 5 #设置
 6 x = tf.placeholder(tf.float32,[none,784])
 7 w = tf.variable(tf.zeros([784,10]))
 8 b = tf.variable(tf.zeros([10]))
 9 #预测值
10 y = tf.nn.softmax(tf.matmul(x,w)+b)
11 #真值
12 y_ = tf.placeholder(tf.float32,[none,10])
13 #交叉熵
14 cross_entropy = -tf.reduce_sum(y_*tf.log(y))
15 
16 #使用优化器
17 train_step = tf.train.gradientdescentoptimizer(0.01).minimize(cross_entropy)
18 #初始化变量
19 init = tf.initialize_all_variables()
20 #创建对话
21 sess = tf.session()
22 sess.run(init)
23 
24 
25 for i in range(1000):
26     batch_xs,batch_ys = mnist.train.next_batch(100)
27     sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys})
28 
29 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
30 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
31 print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))

 

 1 import tensorflow.examples.tutorials.mnist.input_data as input_data
 2 import tensorflow as tf
 3 mnist = input_data.read_data_sets('/temp/', one_hot=true)

1~3行,主要的工作是引入tensorflow模块,并且下载mnist数据集,这是tensorflow自带的下载器,可以自动下载数据集,我们主要重心不在这,所以就这样简单代过。

#设置
 6 x = tf.placeholder(tf.float32,[none,784])
 7 w = tf.variable(tf.zeros([784,10]))
 8 b = tf.variable(tf.zeros([10]))
 9 #预测值
10 y = tf.nn.softmax(tf.matmul(x,w)+b)
11 #真值
12 y_ = tf.placeholder(tf.float32,[none,10])

6~12行
首先是设置输入输出,还有精确值作为学习目标,此外还有权重和偏置,就这样构建一个计算图,图的样子大概是这样的:

基于MNIST手写数字数据集的数字识别小程序

其中x作为输入是一个1x768的向量,然后就是经过权重和偏食,就得到10个输出,然后用softmax()进行预测值的输出。

此外y_作为真值,要用到一个占位符。

 

主要用到的tensorflow的函数有

tf.placeholder    设置一个占位符,用于设置输入
tf.variable      设置一个变量,用于设置权重和偏置
tf.nn.softmax     softmax回归函数
tf.matmul        实现矩阵相乘

 

13 #交叉熵
14 cross_entropy = -tf.reduce_sum(y_*tf.log(y))
15 
16 #使用优化器
17 train_step = tf.train.gradientdescentoptimizer(0.01).minimize(cross_entropy)
18 #初始化变量
19 init = tf.initialize_all_variables()
20 #创建对话
21 sess = tf.session()
22 sess.run(init)
使用交叉熵作为误差评判标准,并以此来实现随机梯度下降。交叉熵函数公式如下:

基于MNIST手写数字数据集的数字识别小程序


这里使用了tensorflow的函数:
tf.reduce_sum      求和
tf.log          求对数

17行就是创建一个优化器,使用随机梯度下降的方法并根据交叉熵进行网络权重和偏置的优化训练。这里使用的参数是学习率,设为0.01。
tensorflow函数:
tf.train.gradientdescentoptimizer(learnrate)  创建一个优化器对象,使用的是随机梯度下降的方法,参数可以设置学习率
tf.train.gradientdescentoptimizer对象的minimize()方法  指定损失函数才能进行优化

19~22行是前面设置的变量的初始化工作,这里需要创建一个session对话,tensorflow所有运算操作都是需要session对话来进行的,此外还需要
对所有变量初始化。
tensorflow函数:
tf.initialize_all_variables()    创建一个初始化所有变量的对象
tf.session()              创建一个session对话
sess.run()                session对话指定执行操作



25 for i in range(1000):
26     batch_xs,batch_ys = mnist.train.next_batch(100)
27     sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys})
28 
29 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
30 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
31 print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))


25~27行就是训练过程,一共迭代一千次,每次送入小批量一百个数据,这里使用数据集的函数
mnist.train.next_batch  可以返回一个小批数据集
然后就是session对话的run()函数,指定优化器的运行,还有feed_dict送入数据字典的指定,上述代码指定输出小批量的数据。

29~31行就是输出识别结果,其中用到tensorflow函数:
tf.argmax        返回的是vector中的最大值的索引号
tf.equal        判断是否相等
tf.reduce_mean    求均值
tf.cast        类型转换

输出:0.9187
表示识别率达到91.87%,但是没什么卵用,还是很糟糕的结果,模型太简单了,不过通过这样的学习,可以大概基础地入门tensorflow的坑。
接下来我将继续深入tensorflow的坑!