作用:正则化是为了防止模型过拟合 原理:在损失函数中加入一个正则项,使模型减少损失的同时还要降低模型复杂度
它往往给模型约束,来使它无法完全迎合训练集数据
在本文中我们将看到三种正则化方法
三种方法思想差不多,只是约束模型复杂度的方法不同
我们先前已经知道MSE损失函数,这个公式后面加的项就叫作正则项,岭回归的正则项是l2范数的平方的一半
此时模型训练时就不能只考虑MSE函数的损失了,还必须减小w参数的大小(降低模型复杂度,减少过拟合的可能性)
以下是sklearn库使用岭回归的基本代码
from sklearn.preprocessing import PolynomialFeatures
model = Ridge(alpha=1)
model.fit(x, y)
alpha就是公式中的a参数,越小则代表正则程度越小
我们来看几种不同alpha的情况
该图参数从左到右逐渐增大(岭回归越强),可以看到模型的复杂度也逐渐降低了
我们已经清楚一点,正则化能让模型变得更简单,考虑以下情景
我们有这样一组数据
可以看到,开始的点排列的还是很有规律的,但是右上角的点显得非常突兀,那么如果进行普通的预测
可能得到以下结果
而使用岭回归可能得到更好的结果,如下
再一次体现了正则化的作用(防止模型过拟合而降低泛化能力)
我们也可以看一个代码示例
分别用线性模型和加入正则的模型拟合数据
from sklearn.linear_model import Ridge
from sklearn.linear_model import LinearRegression
import numpy as np
x = np.random.rand(100, 1)
y = 4 * x + np.random.rand(100, 1)
model1 = LinearRegression()
model1.fit(x, y)
print(model1.coef_)
model = Ridge(alpha=1)
model.fit(x, y)
print(model.coef_)
看看它们拟合的参数
可以看到岭回归拟合的模型更简单(在这个实例中当然效果不好,这里只是为了演示它的作用,在实际情况中我们应该用指标测试模型是否过拟合了,再尝试使用岭回归)
Lasso回归公式和岭回归类似,只不过它的正则项是l1范数,它与岭回归的一个区别是它倾向于完全消除掉最不重要的特征
则正则项为
效果与岭回归相同
以下是sklearn库使用Lasso回归的基本代码
from sklearn.linear_model import Lasso
model = Lasso(alpha=1)
model.fit(x, y)
alpha就是公式中的a参数,越小则代表正则程度越小
弹性网络是岭回归于Lasso回归的中间地带,你可以控制r来控制其他两种正则化方法的混合程度,r为0时,弹性网络就是岭回归,为1时,弹性网络就是Lasso回归
正则项为
以下是sklearn库使用弹性网络的基本代码
from sklearn.linear_model import ElasticNet
model = ElasticNet(alpha=0.1, l1_radio=0.5)
model.fit(x, y)
alpha对应公式中的a参数,l1_radio对应公式中的r
在具体任务中,我们应该用学习曲线或其他性能判断模型是否过拟合后再考虑使用正则化,同时根据不同特征选取不同的正则化方法