基于MNIST手写数字数据集的数字识别小程序
程序员文章站
2023-11-13 18:04:52
30行代码奉上!(MNIST手写数字的识别,识别率大约在91%,简单尝试的一个程序,小玩具而已) 其中x作为输入是一个1x768的向量,然后就是经过权重和偏食,就得到10个输出,然后用softmax()进行预测值的输出。 此外y_作为真值,要用到一个占位符。 主要用到的tensorflow的函数有 ......
30行代码奉上!(mnist手写数字的识别,识别率大约在91%,简单尝试的一个程序,小玩具而已)
1 import tensorflow.examples.tutorials.mnist.input_data as input_data 2 import tensorflow as tf 3 mnist = input_data.read_data_sets('/temp/', one_hot=true) 4 5 #设置 6 x = tf.placeholder(tf.float32,[none,784]) 7 w = tf.variable(tf.zeros([784,10])) 8 b = tf.variable(tf.zeros([10])) 9 #预测值 10 y = tf.nn.softmax(tf.matmul(x,w)+b) 11 #真值 12 y_ = tf.placeholder(tf.float32,[none,10]) 13 #交叉熵 14 cross_entropy = -tf.reduce_sum(y_*tf.log(y)) 15 16 #使用优化器 17 train_step = tf.train.gradientdescentoptimizer(0.01).minimize(cross_entropy) 18 #初始化变量 19 init = tf.initialize_all_variables() 20 #创建对话 21 sess = tf.session() 22 sess.run(init) 23 24 25 for i in range(1000): 26 batch_xs,batch_ys = mnist.train.next_batch(100) 27 sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys}) 28 29 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 30 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) 31 print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
1 import tensorflow.examples.tutorials.mnist.input_data as input_data 2 import tensorflow as tf 3 mnist = input_data.read_data_sets('/temp/', one_hot=true)
1~3行,主要的工作是引入tensorflow模块,并且下载mnist数据集,这是tensorflow自带的下载器,可以自动下载数据集,我们主要重心不在这,所以就这样简单代过。
#设置 6 x = tf.placeholder(tf.float32,[none,784]) 7 w = tf.variable(tf.zeros([784,10])) 8 b = tf.variable(tf.zeros([10])) 9 #预测值 10 y = tf.nn.softmax(tf.matmul(x,w)+b) 11 #真值 12 y_ = tf.placeholder(tf.float32,[none,10])
6~12行
首先是设置输入输出,还有精确值作为学习目标,此外还有权重和偏置,就这样构建一个计算图,图的样子大概是这样的:
其中x作为输入是一个1x768的向量,然后就是经过权重和偏食,就得到10个输出,然后用softmax()进行预测值的输出。
此外y_作为真值,要用到一个占位符。
主要用到的tensorflow的函数有
tf.placeholder 设置一个占位符,用于设置输入
tf.variable 设置一个变量,用于设置权重和偏置
tf.nn.softmax softmax回归函数
tf.matmul 实现矩阵相乘
13 #交叉熵 14 cross_entropy = -tf.reduce_sum(y_*tf.log(y)) 15 16 #使用优化器 17 train_step = tf.train.gradientdescentoptimizer(0.01).minimize(cross_entropy) 18 #初始化变量 19 init = tf.initialize_all_variables() 20 #创建对话 21 sess = tf.session() 22 sess.run(init)
使用交叉熵作为误差评判标准,并以此来实现随机梯度下降。交叉熵函数公式如下:
这里使用了tensorflow的函数:
tf.reduce_sum 求和
tf.log 求对数
17行就是创建一个优化器,使用随机梯度下降的方法并根据交叉熵进行网络权重和偏置的优化训练。这里使用的参数是学习率,设为0.01。
tensorflow函数:
tf.train.gradientdescentoptimizer(learnrate) 创建一个优化器对象,使用的是随机梯度下降的方法,参数可以设置学习率
tf.train.gradientdescentoptimizer对象的minimize()方法 指定损失函数才能进行优化
19~22行是前面设置的变量的初始化工作,这里需要创建一个session对话,tensorflow所有运算操作都是需要session对话来进行的,此外还需要
对所有变量初始化。
tensorflow函数:
tf.initialize_all_variables() 创建一个初始化所有变量的对象
tf.session() 创建一个session对话
sess.run() session对话指定执行操作
25 for i in range(1000): 26 batch_xs,batch_ys = mnist.train.next_batch(100) 27 sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys}) 28 29 correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) 30 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) 31 print(sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
25~27行就是训练过程,一共迭代一千次,每次送入小批量一百个数据,这里使用数据集的函数
mnist.train.next_batch 可以返回一个小批数据集
然后就是session对话的run()函数,指定优化器的运行,还有feed_dict送入数据字典的指定,上述代码指定输出小批量的数据。
29~31行就是输出识别结果,其中用到tensorflow函数:
tf.argmax 返回的是vector中的最大值的索引号
tf.equal 判断是否相等
tf.reduce_mean 求均值
tf.cast 类型转换
输出:0.9187
表示识别率达到91.87%,但是没什么卵用,还是很糟糕的结果,模型太简单了,不过通过这样的学习,可以大概基础地入门tensorflow的坑。
接下来我将继续深入tensorflow的坑!
上一篇: 常见的反爬虫和应对方法
下一篇: python自学——文件处理(强制刷新)
推荐阅读
-
基于MNIST手写数字数据集的数字识别小程序
-
手写数字识别 ----在已经训练好的数据上根据28*28的图片获取识别概率(基于Tensorflow,Python)
-
基于Tensorflow, OpenCV. 使用MNIST数据集训练卷积神经网络模型,用于手写数字识别
-
Tensorflow学习:循环(递归/记忆)神经网络RNN(手写数字识别:MNIST数据集分类)
-
使用tensorflow利用神经网络分类识别MNIST手写数字数据集,转自随心1993
-
基于MNIST手写数字数据集的数字识别小程序
-
TensorFlow教程Softmax逻辑回归识别手写数字MNIST数据集
-
手写数字识别 ----在已经训练好的数据上根据28*28的图片获取识别概率(基于Tensorflow,Python)
-
机器学习Tensorflow基于MNIST数据集识别自己的手写数字(读取和测试自己的模型)
-
详解python实现识别手写MNIST数字集的程序