Author:AXYZdong 李宏毅《机器学习》系列 参考视频地址:https://www.bilibili.com/video/BV1Ht411g7Ef 参考文档:DataWhale文档
误差(Error)主要有两个来源:偏差(Bias)和方差(Variance)。
Error反映的是整个模型的准确度,Bias反映的是模型在样本上的输出与真实值之间的误差,即模型本身的精准度,Variance反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性。 —— 机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?
▲ 偏差 v.s.方差
简单模型(左边)是偏差比较大造成的误差,这种情况叫做欠拟合,而复杂模型(右边)是方差过大造成的误差,这种情况叫做过拟合。
主要是权衡偏差和方差,使得总误差最小。
为什么需要梯度下降法?
1.梯度下降法是迭代法的一种,可用于求解最小二乘问题。 2.在求解机器学习算法的模型参数,在没有约束条件时,主要有梯度下降法,最小二乘法。 3.在求解损失函数的最小值时,可以通过梯度下降法的迭代求解,求得最小值的损失函数和模型的参数。 4.如果我们需要求解损失函数的最大值,可以通过梯度上升法来迭代,梯度下降法和梯度上升法可以相互转换。 5.在机器学习中,梯度下降法主要有随机梯度下降法和batch梯度下降法。 —— 机器学习:为什么需要梯度下降法
▲ 小心翼翼地调整学习率
参数是一维或者二维的时候,可以通过可视化来调整学习率,但是高维的情况就很难可视化。
解决方法:将参数改变对损失函数的影响进行可视化。
不同特征分布的范围差异很大,使用特征缩放使得不同输入的范围是一样的。
使得不同的特征对于输出的影响相当,便于参数的高效更新。
▲ 特征缩放的方法
▲ 梯度下降的限制
Datawhale组队学习,李宏毅《机器学习》Task3. Gradient Descent(梯度下降)。主要包括误差来源、欠拟合和过拟合的判断、梯度下降、调整学习率、梯度下降法的优化以及梯度下降的限制。
参考文献
—— END ——