欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

tensorflow运行mnist的一些常用函数整理(1)

程序员文章站 2022-03-25 19:09:42
最近在tensorflow环境下用CNN来实现mnist,里面设计了一些tensorflow的函数,在之后的学习中肯定会经常使用,因此记录整理下来。 函数如下,现将函数名列在此,后面进行详细分析: tf.truncated_naomal() tf.Variable() tf.reshape() tf ......

 

最近在tensorflow环境下用cnn来实现mnist,里面设计了一些tensorflow的函数,在之后的学习中肯定会经常使用,因此记录整理下来。

      函数如下,现将函数名列在此,后面进行详细分析:

          tf.truncated_naomal()

          tf.variable()

          tf.reshape()

          tf.matmul()

          tf.muitiply()

          tf.reduce_sum()

          tf.reduce_mean()

具体分析:

tf.truncated_normal(shape, mean, stddev) 

           shape表示生成张量的维度

           mean是均值

           stddev是标准差

           这个函数产生正态分布,均值和标准差自己设定。这是一个截断的产生正太分布的函数,就是说产生正态分布的值如果与均值的差值大于两倍的标准差,那就重新生成,和一             般的正太分布的产生随机数据比起来,这个函数产生的随机数与均值的差距不会超过两倍的标准差

tf.variable(initializer,name)

          参数initializer是初始化参数

          name是可自定义的变量名称

          例如     v2=tf.variable(tf.constant(2),name='v2')

tf.reshape(tensor, shape, name=none)

          第1个参数为被调整维度的张量

          第2个参数为要调整为的形状,注意shape里最多有一个维度的值可以填写为-1,表示自动计算此维度    

x = tf.placeholder("float", shape=[none, 784])
x_image = tf.reshape(x, [-1, 28, 28, 1])

tf.matmul(a, b, transpose_a=false, transpose_b=false, adjoint_a=false, adjoint_b=false, a_is_sparse=false, b_is_sparse=false, name=none)

         将矩阵a乘于矩阵b-------矩阵相乘

         transpose_a: 如果为真, a则在进行乘法计算前进行转置。 
         transpose_b: 如果为真, b则在进行乘法计算前进行转置。 
         adjoint_a: 如果为真, a则在进行乘法计算前进行共轭和转置。 
         adjoint_b: 如果为真, b则在进行乘法计算前进行共轭和转置。 
         a_is_sparse: 如果为真, a会被处理为稀疏矩阵。 
         b_is_sparse: 如果为真, b会被处理为稀疏矩阵。 
         name: 操作的名字(可选参数)

注意:1 输入必须是矩阵(或者是张量秩 >2的张量,表示成批的矩阵),并且其在转置之后有相匹配的矩阵尺寸

           2 两个矩阵必须都是同样的类型,支持的类型如下:float16, float32, float64, int32, complex64, complex128

tf.multiply(x, y, name=none) 

      x: 一个类型为:half, float32, float64, uint8, int8, uint16, int16, int32, int64, complex64, complex128的张量。 
      y: 一个类型跟张量x相同的张量。

      1 multiply这个函数实现的是元素级别的相乘,也就是两个相乘的数元素各自相乘,而不是矩阵乘法

      2 两个相乘的数必须有相同的数据类型,不然就会报错

tf.reduce_sum(tensor, axis = none, keep_dims = false, name = none)

      此函数用于降纬相加,

      tensor-输入的张量   

      axis-要求和的 rank,如果为 none,则表示所有 rank 都要求和

      keep_dims-如果为真,则求和之后不降纬

      心得:如果输入张量的维度为n,则axis的取值为0 - (n-1)

      例如:用下面代码进行测试

     

import tensorflow as tf
import numpy as np
#生成形状为2*2*3的三维数据
x = np.asarray([[[1,2,3],[4,5,6]],[[7,8,9],[10,11,12]]])
x_p = tf.placeholder(tf.int32,[2,2,3])
#修改下面的值
#axis=0    对第一纬进行相加,降纬
#axis=1    对第二纬进行相加,降纬
#axis=2    对第三纬进行相加,降纬
#axis=[0,1,2]    对第所有纬进行相加,降纬
#axis=none    效果同上,降纬
#axis=0 keep_dims = true    对第一纬进行相加,不降纬
y =  tf.reduce_sum(x_p,0)
with tf.session() as sess:
    y = sess.run(y,feed_dict={x_p:x})
    print y

输出结果依次是:

           tensorflow运行mnist的一些常用函数整理(1)

           tensorflow运行mnist的一些常用函数整理(1)

           tensorflow运行mnist的一些常用函数整理(1)

           tensorflow运行mnist的一些常用函数整理(1)

           tensorflow运行mnist的一些常用函数整理(1)

           tensorflow运行mnist的一些常用函数整理(1)

tf.reduce_mean(tensor, axis = none, keep_dims = false, name = none)

         此函数与tf.reduce_sum()类似

         axis-要求平均的 rank,如果为 none,则表示所有 rank 都要求平均

         keep_dims-如果为真,则求和之后不降纬

         心得:如果输入张量的维度为n,则axis的取值为0 - (n-1)

         例如:用下面代码进行测试

     

import tensorflow as tf
import numpy as np
#生成形状为2*2*3的三维数据
x = np.asarray([[[1,2,3],[4,5,6]],[[7,8,9],[10,11,12]]])
x_p = tf.placeholder(tf.int32,[2,2,3])
#修改下面的值
#axis=0    对第一纬进行求平均,降纬
#axis=1    对第二纬进行求平均,降纬
#axis=2    对第三纬进行求平均,降纬
#axis=[0,1,2]    对第所有纬进行求平均,降纬
#axis=none    效果同上,降纬
#axis=0 keep_dims = true    对第一纬进行求平均,不降纬
y =  tf.reduce_mean(x_p,0)  #修改此处的参数
with tf.session() as sess:
    y = sess.run(y,feed_dict={x_p:x})
    print y

输出结果为:
       tensorflow运行mnist的一些常用函数整理(1)

       tensorflow运行mnist的一些常用函数整理(1)

       tensorflow运行mnist的一些常用函数整理(1)

       tensorflow运行mnist的一些常用函数整理(1)

       tensorflow运行mnist的一些常用函数整理(1)

       tensorflow运行mnist的一些常用函数整理(1)