辨析:最小二乘、线性回归与极大似然

2021/6/19 0:05:28

本文主要是介绍辨析:最小二乘、线性回归与极大似然,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

下面三个概念在机器学习领域非常常见:

  • 最小二乘:也称为最小二乘法,英文 Least Square Method(LSM);
  • 线性回归:英文 Linear Regression(LR),在无歧义或概念要求不严格的情况下,有时可能用“线性模型”、“回归”指代;
  • 极大似然:也称为极大似然估计,英文 Maximum Likelihood Estimate(MLE)。

这三个术语经常存在混淆,本文试图辨析。

注意,本文辨析结果也许与一般书籍论文中定义不同,全在于个人理解。

线性回归:以最小二乘法求解的线性模型。

最小二乘:以 L2 损失函数为目标的模型优化方法。

最小二乘,狭义上,是以最小化目标 y 与拟合函数 f(x;w) 误差平方和的方式,确定函数参数 w 的方法,即

\min_{w} \frac{1}{N}\sum_i (y_i-f(x_i;w))^2 

当 f(x;w) 是关于参数 w 的线性函数的时候:

误差 \epsilon = y - f(x;w) 进一步满足: (1) E(\epsilon)=0 , (2) Cov(\epsilon)=\sigma^2 I 时,最小二乘法优化得到的函数参数是 BLUE 的,即最小无偏估计。

极大似然:以最大化似然函数为目标的模型优化方法。

重点说明极大似然与最小二乘的关系。

假设模型的误差可以用正态分布建模,即

 y=f(x;w) + \epsilon, \epsilon\sim N(0,\sigma^2)

可以写成

y=N(f(x;w)),\sigma^2)

易知,利用极大似然优化上式,等价于上述最小二乘的优化公式。

最后

需要注意,利用最小二乘法优化线性回归,并不需要正态分布假设即可 BLUE。

正态分布只是帮助理解最小二乘与极大似然之间可能存在的关系。

 

 



这篇关于辨析:最小二乘、线性回归与极大似然的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程