欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

(二)Tensorflow学习——构造线性回归模型

程序员文章站 2024-03-21 08:02:57
...

实验在jupyter notebook上运行。

一、导入相关包

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline  # 保证图像直接在notebook上显示,不用显示调用plt.show()

二、随机生成x,y数据

num_points = 1000
vector_sets = []
for i in range(num_points):
    x1 = np.random.normal(0.0, 0.55)
    y1 = x1 * 0.1 + 0.3 + np.random.normal(0.0, 0.03)  # 产生噪声
    vector_sets.append([x1, y1])
    
# 生成一些样本
x_data = [v[0] for v in vector_sets]
y_data = [v[1] for v in vector_sets]

plt.scatter(x_data, y_data, c='r')

(二)Tensorflow学习——构造线性回归模型

三、构造线性回归模型

构造线性回归模型,训练出两个参数w、b。

在机器学习中,需要对权重系数W随机初始化,不能取零;偏置系数b可以初始化为零。

3.1 计算预估值

# 生成一维的W矩阵,取值是[-1, 1]之间的随机数。在机器学习中,需要对权重系数随机初始化,不能取零。
W = tf.Variable(tf.random_uniform([1], -1.0, 1.0), name='W')
# 生成一维的b矩阵,初始值可以取零
b = tf.Variable(tf.zeros([1]), name='b')
# 经过计算得出预估值y
y = W * x_data + b

3.2 模型训练

# 损失:以预估值y和实际值y_data之间的均方误差作为损失
loss = tf.reduce_mean(tf.square(y - y_data), name='loss')
# 优化器:采用梯度下降优化参数,学习率0.5
optimizer = tf.train.GradientDescentOptimizer(0.5)
# 训练:训练的过程就是最小化误差loss,进行梯度下降求解,求解参数w、b
train = optimizer.minimize(loss, name='train')

sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)

3.3 运行结果

# 初始化的W和b是多少
print('初始化的W和b:')
print('W = ', sess.run(W), ' b = ', sess.run(b), ' loss = ', sess.run(loss))
print('训练的W和b:')
# 执行20次训练
for step in range(20):
    sess.run(train)
    # 输出训练好的W和b
    print('W = ', sess.run(W), ' b = ', sess.run(b), ' loss = ', sess.run(loss))

(二)Tensorflow学习——构造线性回归模型

3.4 绘制结果图

plt.scatter(x_data, y_data, c='r')
plt.plot(x_data, sess.run(W)*x_data+sess.run(b))

(二)Tensorflow学习——构造线性回归模型