我们需要一定的准则来评估不同机器学习模型的优劣,这就引申出损失函数和风险函数。
监督学习是在假设空间
中选取模型
作为决策函数,对于给定的输入
,由
给出相应的输出
,用损失函数来衡量预测值
和真实值
之间的差距,它是一个非负实值函数,记作
。
当损失函数越小时意味着模型拟合效果越好,损失函数的期望是:
这是理论上模型
关于联合分布
的平均意义下的损失,称为风险函数(或者期望损失)。
监督学习的目的就是选择令期望风险最小化的模型,但是由于联合分布
未知,风险函数的值并不能直接计算,所以监督学习就称为一个病态问题ill-formed problem
。
由于风险函数并不能直接计算,我们转而求模型
在训练数据集上的平均损失作为经验风险损失,记作
。
是模型
关于联合分布的期望损失,
是模型
在训练集上的平均损失。根据大数定律,当样本容量
趋于无穷是,这两个损失基本相等。但是现实中训练样本数量往往有限,从而用经验风险估计期望风险往往并不理想,需要对经验风险进行一定的矫正,这就涉及到监督学习的两个基本策略:经验风险最小化和结构风险最小化。
经验风险最小化策略认为,经验风险最小的模型就是最优的模型,即:
当样本容量足够大时,经验风险最小化能保证具有较好的学习效果,在现实中也被广泛采用。例如极大似然估计就是经验风险最小化的一个例子(在模型是条件概率分布,损失函数是对数损失函数时等价)。
当样本容量较小时,经验风险最小化的准则会导致过拟合问题的出现,结构风险最小化等价于正则化(也叫做罚项)。定义如下:
其中
为模型的复杂度,是定义在假设空间
上的泛函。其中
是系数,用于权衡经验风险和模型复杂度对模型优劣的影响。
结构风险较小的模型往往对训练数据以及未知的测试数据都有较好的预测。例如贝叶斯估计中的最大后验概率估计就是结构风险最小化的例子(在模型是条件概率分布,损失函数是对数损失概率且模型复杂度由模型的先验概率表示时等价)。
监督学习的问题可以转化为经验风险或者结构风险函数的最优化问题,这时候经验或者结构风险函数就是最优化的目标函数。
[1] 统计学习方法