机器学习算法(一元线性回归)
2021/11/12 22:14:52
本文主要是介绍机器学习算法(一元线性回归),对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
import matplotlib.pyplot as plt import numpy as np import pandas as pd from sklearn import datasets, linear_model # 读取所需数据 def get_data(file_name): data = pd.read_csv(file_name) # 获取Dataframe对象 X_parameter = [] Y_parameter = [] for single_square_feet, single_price_value in zip(data['square_feet'], data['price']): X_parameter.append([float(single_square_feet)]) #加中括号变成二维数组,x,以及用这个x预测的y值 Y_parameter.append(float(single_price_value)) return X_parameter, Y_parameter # 拟合线性模型 def linear_model_main(X_parameters, Y_parameters, predict_value): regr = linear_model.LogisticRegression() # 创建线性回归对象 regr.fit(X_parameters, Y_parameters) # 拟合 predict_outcome = regr.predict(predict_value) # 调用线性回归对象的预测方法 predictions = {} # 定义一个空字典,存储拟合得到的斜率和截距,预测值 predictions['intercept'] = regr.intercept_ predictions['coefficient'] = regr.coef_ predictions['predicted_value'] = predict_outcome return predictions # 显示拟合线性模型的结果 def show_linear_line(X_parameters, Y_parameters): regr = linear_model.LinearRegression() regr.fit(X_parameters, Y_parameters) plt.scatter(X_parameters, Y_parameters, color='blue') plt.plot(X_parameters, regr.predict(X_parameters), color='red', linewidth=4) # plt.xticks(()) # 参数是xtick位置的列表。和一个可选参数。如果将一个空列表作为参数传递,则它将删除所有xticks # plt.yticks(()) plt.show() X, Y = get_data('input_data.csv') # 传入所需数据 predictvalue = 700 result = linear_model_main(X, Y, predictvalue) # 结果字典 print("Intercept value:", result['intercept']) print("Coefficient:", result['coefficient']) print("Predicted value:", result['predicted_value']) show_linear_line(X, Y)
这篇关于机器学习算法(一元线性回归)的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-01-24手把手教你使用MDK仿真调试
- 2024-01-10基于“小数据”的机器学习
- 2024-01-08扩展卡尔曼滤波:提高机器学习性能的利器
- 2023-12-26各种二端口滤波器网络仿真遇到的问题
- 2023-12-14机器学习-搜索技术:从技术发展到应用实战的全面指南
- 2023-12-12机器学习 - 决策树:技术全解与案例实战
- 2023-12-05机器学习-学习率:从理论到实战,探索学习率的调整策略
- 2023-12-04解锁机器学习-梯度下降:从技术到实战的全面指南
- 2023-11-30回归算法全解析!一文读懂机器学习中的回归模型
- 2023-11-30机器学习 - 似然函数:概念、应用与代码实例