【每日一更】<吴恩达-机器学习>
2021/12/14 23:17:23
本文主要是介绍【每日一更】<吴恩达-机器学习>,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
目录
一、Linear Regression with multiple variable - 多变量线性回归:
二、Gradient descent for multiple carables - 多变量梯度下降:
三、Feature Scaling - 特征缩放:
1.特征缩放方法:
2.归一化和标准化的区别:
四、Learning rate - 学习率:
一、Linear Regression with multiple variable - 多变量线性回归:
Multivariate linear regression:
二、Gradient descent for multiple carables - 多变量梯度下降:
三、Feature Scaling - 特征缩放:
1.特征缩放方法:
有一些时候,只对数据进行中心化和缩放是不够的,还需对数据进行白化(whitening)处理来消除特征间的线性相关性。
2.归一化和标准化的区别:
- 归一化(normalization):归一化是将样本的特征值转换到同一量纲下,把数据映射到[0,1]或者[-1, 1]区间内。
- 标准化(standardization):标准化是将样本的特征值转换为标准值(z值),每个样本点都对标准化产生影响。
四、Learning rate - 学习率:
首先我们简单回顾下什么是学习率,在梯度下降的过程中更新权重时的超参数,即下面公式中的:
学习率越低,损失函数的变化速度就越慢,容易过拟合。虽然使用低学习率可以确保我们不会错过任何局部极小值,但也意味着我们将花费更长的时间来进行收敛,特别是在被困在局部最优点的时候。而学习率过高容易发生梯度爆炸,loss振动幅度较大,模型难以收敛。下图是不同学习率的loss变化,因此,选择一个合适的学习率是十分重要的。
这篇关于【每日一更】<吴恩达-机器学习>的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-17机器学习资料入门指南
- 2024-12-06如何用OpenShift流水线打造高效的机器学习运营体系(MLOps)
- 2024-12-06基于无监督机器学习算法的预测性维护讲解
- 2024-12-03【机器学习(六)】分类和回归任务-LightGBM算法-Sentosa_DSML社区版
- 2024-12-0210个必须使用的机器学习API,为高级分析助力
- 2024-12-01【机器学习(五)】分类和回归任务-AdaBoost算法-Sentosa_DSML社区版
- 2024-11-28【机器学习(四)】分类和回归任务-梯度提升决策树(GBDT)算法-Sentosa_DSML社区版
- 2024-11-26【机器学习(三)】分类和回归任务-随机森林(Random Forest,RF)算法-Sentosa_DSML社区版
- 2024-11-18机器学习与数据分析的区别
- 2024-10-28机器学习资料入门指南