(二)Tensorflow学习——构造线性回归模型
程序员文章站
2024-03-21 08:02:57
...
实验在jupyter notebook上运行。
一、导入相关包
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline # 保证图像直接在notebook上显示,不用显示调用plt.show()
二、随机生成x,y数据
num_points = 1000
vector_sets = []
for i in range(num_points):
x1 = np.random.normal(0.0, 0.55)
y1 = x1 * 0.1 + 0.3 + np.random.normal(0.0, 0.03) # 产生噪声
vector_sets.append([x1, y1])
# 生成一些样本
x_data = [v[0] for v in vector_sets]
y_data = [v[1] for v in vector_sets]
plt.scatter(x_data, y_data, c='r')
三、构造线性回归模型
构造线性回归模型,训练出两个参数w、b。
在机器学习中,需要对权重系数W
随机初始化,不能取零;偏置系数b
可以初始化为零。
3.1 计算预估值
# 生成一维的W矩阵,取值是[-1, 1]之间的随机数。在机器学习中,需要对权重系数随机初始化,不能取零。
W = tf.Variable(tf.random_uniform([1], -1.0, 1.0), name='W')
# 生成一维的b矩阵,初始值可以取零
b = tf.Variable(tf.zeros([1]), name='b')
# 经过计算得出预估值y
y = W * x_data + b
3.2 模型训练
# 损失:以预估值y和实际值y_data之间的均方误差作为损失
loss = tf.reduce_mean(tf.square(y - y_data), name='loss')
# 优化器:采用梯度下降优化参数,学习率0.5
optimizer = tf.train.GradientDescentOptimizer(0.5)
# 训练:训练的过程就是最小化误差loss,进行梯度下降求解,求解参数w、b
train = optimizer.minimize(loss, name='train')
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)
3.3 运行结果
# 初始化的W和b是多少
print('初始化的W和b:')
print('W = ', sess.run(W), ' b = ', sess.run(b), ' loss = ', sess.run(loss))
print('训练的W和b:')
# 执行20次训练
for step in range(20):
sess.run(train)
# 输出训练好的W和b
print('W = ', sess.run(W), ' b = ', sess.run(b), ' loss = ', sess.run(loss))
3.4 绘制结果图
plt.scatter(x_data, y_data, c='r')
plt.plot(x_data, sess.run(W)*x_data+sess.run(b))
上一篇: InfluxDB搭建及配置
下一篇: mysql主从同步原理及配置