TensorFlow线性回归

在本章中,将重点介绍使用TensorFlow进行线性回归实现的基本示例。逻辑回归或线性回归是用于对离散类别进行分类的监督机器学习方法。在本章中的目标是构建一个模型,用户可以通过该模型预测预测变量与一个或多个自变量之间的关系。

这两个变量之间的关系是线性的。如果y是因变量x的变化而变化,那么可将x认为是自变量,那么两个变量的线性回归关系将如下式所示:

Y = Ax+b

接下来将设计一种线性回归算法。需要了解以下两个重要概念 -

  • 成本函数
  • 梯度下降算法

线性回归的示意图如下所述 -

线性回归

线性回归方程的图形视图如下所述 -

线性回归方程

设计线性回归算法的步骤

我们现在来看看设计线性回归算法的步骤。

第1步

导入绘制线性回归模块所需的模块非常重要。开始导入Python库NumPy和Matplotlib。

import numpy as np 
import matplotlib.pyplot as plt

第2步

定义逻辑回归所需的系数数量。

number_of_points = 500 
x_point = [] 
y_point = [] 
a = 0.22 
b = 0.78

第3步

迭代变量以在回归方程周围生成300个随机点 -

Y = 0.22x + 0.78

for i in range(number_of_points): 
   x = np.random.normal(0.0,0.5) 
   y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) 
   y_point.append([y])

第4步

使用Matplotlib查看生成的点。

fplt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() plt.show()

逻辑回归的完整代码如下 -

import numpy as np 
import matplotlib.pyplot as plt 

number_of_points = 500 
x_point = [] 
y_point = [] 
a = 0.22 
b = 0.78 

for i in range(number_of_points): 
   x = np.random.normal(0.0,0.5) 
   y = a*x + b +np.random.normal(0.0,0.1) x_point.append([x]) 
   y_point.append([y]) 

plt.plot(x_point,y_point, 'o', label = 'Input Data') plt.legend() 
plt.show()

输入的点数视为输入数据 -


上一篇:TensorFlow单层感知

下一篇:TensorFlow TFLearn安装和使用

关注微信小程序
程序员编程王-随时随地学编程

扫描二维码
程序员编程王

扫一扫关注最新编程教程