tensorflow运行mnist的一些常用函数整理(1)
最近在tensorflow环境下用cnn来实现mnist,里面设计了一些tensorflow的函数,在之后的学习中肯定会经常使用,因此记录整理下来。
函数如下,现将函数名列在此,后面进行详细分析:
tf.truncated_naomal()
tf.variable()
tf.reshape()
tf.matmul()
tf.muitiply()
tf.reduce_sum()
tf.reduce_mean()
具体分析:
tf.truncated_normal(shape, mean, stddev)
shape表示生成张量的维度
mean是均值
stddev是标准差
这个函数产生正态分布,均值和标准差自己设定。这是一个截断的产生正太分布的函数,就是说产生正态分布的值如果与均值的差值大于两倍的标准差,那就重新生成,和一 般的正太分布的产生随机数据比起来,这个函数产生的随机数与均值的差距不会超过两倍的标准差
tf.variable(initializer,name)
参数initializer是初始化参数
name是可自定义的变量名称
例如 v2=tf.variable(tf.constant(2),name='v2')
tf.reshape(tensor, shape, name=none)
第1个参数为被调整维度的张量
第2个参数为要调整为的形状,注意shape里最多有一个维度的值可以填写为-1,表示自动计算此维度
x = tf.placeholder("float", shape=[none, 784]) x_image = tf.reshape(x, [-1, 28, 28, 1])
tf.matmul(a, b, transpose_a=false, transpose_b=false, adjoint_a=false, adjoint_b=false, a_is_sparse=false, b_is_sparse=false, name=none)
将矩阵a乘于矩阵b-------矩阵相乘
transpose_a: 如果为真, a则在进行乘法计算前进行转置。
transpose_b: 如果为真, b则在进行乘法计算前进行转置。
adjoint_a: 如果为真, a则在进行乘法计算前进行共轭和转置。
adjoint_b: 如果为真, b则在进行乘法计算前进行共轭和转置。
a_is_sparse: 如果为真, a会被处理为稀疏矩阵。
b_is_sparse: 如果为真, b会被处理为稀疏矩阵。
name: 操作的名字(可选参数)
注意:1 输入必须是矩阵(或者是张量秩 >2的张量,表示成批的矩阵),并且其在转置之后有相匹配的矩阵尺寸
2 两个矩阵必须都是同样的类型,支持的类型如下:float16, float32, float64, int32, complex64, complex128
tf.multiply(x, y, name=none)
x: 一个类型为:half, float32, float64, uint8, int8, uint16, int16, int32, int64, complex64, complex128的张量。
y: 一个类型跟张量x相同的张量。
1 multiply这个函数实现的是元素级别的相乘,也就是两个相乘的数元素各自相乘,而不是矩阵乘法
2 两个相乘的数必须有相同的数据类型,不然就会报错
tf.reduce_sum(tensor, axis = none, keep_dims = false, name = none)
此函数用于降纬相加,
tensor-输入的张量
axis-要求和的 rank,如果为 none,则表示所有 rank 都要求和
keep_dims-如果为真,则求和之后不降纬
心得:如果输入张量的维度为n,则axis的取值为0 - (n-1)
例如:用下面代码进行测试
import tensorflow as tf import numpy as np #生成形状为2*2*3的三维数据 x = np.asarray([[[1,2,3],[4,5,6]],[[7,8,9],[10,11,12]]]) x_p = tf.placeholder(tf.int32,[2,2,3]) #修改下面的值 #axis=0 对第一纬进行相加,降纬 #axis=1 对第二纬进行相加,降纬 #axis=2 对第三纬进行相加,降纬 #axis=[0,1,2] 对第所有纬进行相加,降纬 #axis=none 效果同上,降纬 #axis=0 keep_dims = true 对第一纬进行相加,不降纬 y = tf.reduce_sum(x_p,0) with tf.session() as sess: y = sess.run(y,feed_dict={x_p:x}) print y
输出结果依次是:
tf.reduce_mean(tensor, axis = none, keep_dims = false, name = none)
此函数与tf.reduce_sum()类似
axis-要求平均的 rank,如果为 none,则表示所有 rank 都要求平均
keep_dims-如果为真,则求和之后不降纬
心得:如果输入张量的维度为n,则axis的取值为0 - (n-1)
例如:用下面代码进行测试
import tensorflow as tf import numpy as np #生成形状为2*2*3的三维数据 x = np.asarray([[[1,2,3],[4,5,6]],[[7,8,9],[10,11,12]]]) x_p = tf.placeholder(tf.int32,[2,2,3]) #修改下面的值 #axis=0 对第一纬进行求平均,降纬 #axis=1 对第二纬进行求平均,降纬 #axis=2 对第三纬进行求平均,降纬 #axis=[0,1,2] 对第所有纬进行求平均,降纬 #axis=none 效果同上,降纬 #axis=0 keep_dims = true 对第一纬进行求平均,不降纬
y = tf.reduce_mean(x_p,0) #修改此处的参数 with tf.session() as sess: y = sess.run(y,feed_dict={x_p:x}) print y
输出结果为: