- 实验主题-TensorFlow实现简单线性回归
- 案例实现
- 实验效果
逻辑回归或线性回归是用于对离散类别进行分类的监督机器学习方法。在本章中的目标是构建一个模型,用户可以通过该模型预测预测变量与一个或多个自变量之间的关系。 实验主题-TensorFlow实现简单线性回归
这两个变量之间的关系是线性的。如果y是因变量x的变化而变化,那么可将x认为是自变量,那么两个变量的线性回归关系将如下式所示:
y = w*x + b
接下来将设计一种线性回归算法。需要了解以下两个重要概念
- 成本函数
- 梯度下降算法
线性回归方程的图形视图如下所述
设计线性回归算法的核心代码如下
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
#定义训练数据
train_x = np.linspace(-1,1,100)
train_y = 3*train_x + np.random.randn(*train_x.shape)*0.33 + 10
#定义输入输出
x = tf.placeholder(dtype=tf.float32)
y_ = tf.placeholder(dtype=tf.float32)
#定义权值和偏置
w = tf.Variable(0.0,name="weight")
b = tf.Variable(0.0,name="bias")
#定义预测输出
y = w*x + b
#定义损失函数和反向传播算法
loss = tf.square(y-y_)
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
#创建会话
with tf.Session() as sess:
sess.run(tf.initialize_all_variables())
plt.ion() # 打开互交模式
for i in range(10):
for (X,Y) in zip(train_x,train_y):
_,w_value,b_value = sess.run([train_step,w,b],feed_dict={x:X,y_:Y})
print("step:{},w:{},b:{}".format(i+1,w_value,b_value))
plt.plot(train_x,train_y,'+')
plt.plot(train_x,w.eval()*train_x+b.eval())
# 暂停
plt.pause(0.5)
实验效果
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)