前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >机器学习(八)经验风险与结构风险

机器学习(八)经验风险与结构风险

作者头像
Maynor
发布于 2023-11-08 02:20:23
发布于 2023-11-08 02:20:23
4420
举报

1.11经验风险与结构风险

策略部分:

1.11.1 经验风险

模型f(x)关于训练数据集的平均损失称之为经验风险(emprical risk)或经验损失(empirical loss),记作R(emp)

期望风险R(emp)是模型关于联合分布的期望损失,经验风险R(emp)是模型关于训练样本集的平均损失。根据大数定律,当样本容量N趋于无穷时,经验风险R(emp)趋于期望风险R(exp),所以一个很自然的想法就是利用经验风险估计期望风险。但是,由于现实中训练样本数目有限甚至很小,所以用经验风险估计期望风险常常不理想,要对经验风险进行一定的矫正,这就是关系到监督学习的两个基本策略:经验风险最小化和结构风险最小化。

1.11.2 经验风险最小化

在损失函数以及训练数据集确定的情况下,经验风险函数式就可以确定,经验风险最小化(emprical risk minimization,EMR)的策略认为,经验风险最小的模型是最优模型。

当样本容量足够大的时候,经验风险最小化能保证有很好的学习效果,在现实中被广泛应用,比如,极大似然估计(maximum likelihood estimation)就是经验风险最小化的一个例子,当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化就等价于极大似然估计。

1.11.3 结构风险

但是,当样本容量很小时,经验风险最小化的学习的效果就未必很好,会产生“过拟合”现象。

结构风险最小化(structural risk minimization,SMR)是为了防止过拟合而提出来的策略。结构风险在经验风险基础上加上表示模型复杂度的正则化项(regularizer)或罚项(penalty term)。在假设空间,损失函数以及训练数据集确定的情况下,结构风险的定义是:

其中J(f)为模型的复杂度,是定义在假设空间F上的泛函,模型f越复杂。

1.11.4 结构风险最小化

复杂度J(f)就越大;反之,模型f就越简单,复杂度J(f)就越小,也就是说,复杂度表示对复杂模型的惩罚,lambda>=0是系数,是用以权衡经验风险和模型复杂度,结构风险小需要经验风险与模型复杂度同时小,结构风险小的模型往往对训练数据以及未知的测试数据都有较好的预测。

1.11.5模型评估和模型选择

当损失函数给定时,基于损失函数的模型的训练误差和模型的测试误差就自然成为了学习方法评估的标准。

1.12正则化

模型选择的典型方法是正则化,正则化一般形式如下:

经验风险较小的模型可能较复杂,这时正则化项的值会较大,正则化的作用是选择经验风险与模型复杂度同时较小的模型。

正则化项符合奥卡姆剃刀原理,在所有的可能的模型中,能够很好的解析已知数据并且十分简单的模型才是最好的模型,从贝叶斯估计的角度来看,正则化项对应于模型的先验概率,可以假设复杂的模型有较小的先验概率,简单的模型有较大的先验概率。

1.13交叉验证

机器学习中常用的精度测试方法,叫做交叉验证。它的目的是得到可靠稳定的模型,具体的做法是拿出大部分数据进行建模,留小部分样本用刚刚建立的模型进行预测,并求出这小部分样本预测的误差,交叉验证在克服过拟合问题上非常有效。接下来分别阐述:

1.13.1简单交叉验证

简单交叉验证的方法是这样的,随机从最初的样本中选择部分,形成验证数据,而剩下的当作训练数据。一般来说,少于三分之一的数据被选作验证 数据。

1.13.2 K则交叉验证

10折交叉验证是把样本数据分成10份,轮流将其中9份做训练数据,

将剩下的1份当测试数据,10次结果的均值作为对算法精度的估计,通常情况下为了提高精度,还需要做多次10折交叉验证。

更进一步,还有K折交叉验证,10折交叉验证是它的特殊情况。K 折交叉验证就是把样本分为K份,其中K-1份用来做训练建立模型,留剩下的一份来验证,交叉验证重复K次,每个子样本验证一次。

1.13.3留一验证

留一验证只使用样本数据中的一项当作验证数据,而剩下的全作为训练数据,一直重复,直到所有的样本都作验证数据一次。可以看出留 一验证实际上就是K折交叉验证,只不过这里的K有点特殊,K为样本数 据个数。

后记

📢博客主页:https://manor.blog.csdn.net

📢欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正! 📢本文由 Maynor 原创,首发于 CSDN博客🙉 📢不能老盯着手机屏幕,要不时地抬起头,看看老板的位置⭐ 📢专栏持续更新,欢迎订阅:https://blog.csdn.net/xianyu120/category_12468207.html

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-11-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
《统计学习方法》笔记一 统计学习方法概论
  输入与输出所有可能取值的集合成为输入空间与输出空间。每个具体的输入是一个实例,通常由特征向量表示,所有特征向量存在的空间成为特征空间。
闪电gogogo
2018/10/11
7030
《统计学习方法》笔记一 统计学习方法概论
统计学习方法(一)——统计学习方法概论
统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测和分析的一门学科。统计学习也称为统计机器学习(statistical machine learning)。现在人们提到的机器学习往往是指统计机器学习。
Tyan
2019/05/25
9210
机器学习开篇
总第76篇 声明: 1、接下来的关于机器学习的专题内容都会借鉴李航老师的《统计学习方法》。 2、李航老师的书籍中把机器学习称为统计机器学习,我们在文章中简称为统计学习。 01|统计学习概览: 1、统计学习的概念 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科。 2、统计学习的对象 统计学习的对象是数据,它从数据出发,提取数据的特征,抽象出数据的模型,发现数据中的知识,然后对数据进行分析与预测。 作为统计学习的对象,数据的形式是多样的,包括存在于计算机中的各种数字、
张俊红
2018/04/11
6240
机器学习开篇
统计学习方法导论—2
当损失函数是0-1损失时,测试误差就变成了常见的测试数据集上的误差率error rate
皮大大
2021/03/02
3380
[机器学习必知必会]损失函数与风险函数
未知,风险函数的值并不能直接计算,所以监督学习就称为一个病态问题ill-formed problem。
TOMOCAT
2020/06/10
9230
机器学习,过拟合与欠拟合,正则化与交叉验证
不同的机器学习方法会给出不同的模型。当损失函数给定时,基于损失函数的模型的训练误差(training error)和模型的测试误差(test error)就自然成为学习方法评估的标准。
zhangjiqun
2024/12/14
2930
机器学习,过拟合与欠拟合,正则化与交叉验证
机器学习中的期望风险、经验风险、结构风险是什么?
要区分期望风险、经验风险、结构风险这三个概念,需要先讲一下损失函数L(Y,f(x))的概念。在机器学习中,损失函数主要是用来衡量模型的拟合程度,即表示模型预测值与真实样本值之间的差距。损失函数越小,说明模型拟合的越好,该模型对未知样本的预测能力也就越强。常见的损失函数如下图所示。本文以常见的平方损失函数来举例说明。
自学气象人
2023/06/20
3.4K0
机器学习中的期望风险、经验风险、结构风险是什么?
机器学习基础之模型评估(四)
标题: 损失函数与风险 正则化 这次,我们来介绍一下机器学习模型中常用到的一种对付模型过拟合问题的方法,也是许多模型常用的优化模型的一个方法:正则化。 正则化是一个典型的用于选择模型的方法。它是结构风险最小化策略的实现,是在经验风险上加一个正则化项或罚项。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。 要了解正则化具体是做啥的,我们还得从讨论结构风险最小化开始。下面,我们就来讲讲损失函数与风险。 损失函数与风险 什么是结构风险?我们可以将它看作为是对经验风险的一个优化。经验风险又是啥呢
企鹅号小编
2018/01/16
9630
机器学习基础之模型评估(四)
机器学习笔记-总结
机器学习笔记是我这学期在上”统计学习”这门课时学习到的内容的一个总结.因为过往很多学过的知识,现在大多都已经忘掉了,而统计机器学习的内容则很重要,我可不能再上过就忘掉,所以在复习的时候把这些内容都记录下来,以便以后查阅.
王云峰
2019/12/25
4810
机器学习笔记-总结
机器学习中的损失函数
在机器学习中,同一个数据集可能训练出多个模型即多个函数(如下图所示,同样的数据集训练出三种不同的函数),那么我们在众多函数中该选择哪个函数呢?首选肯定是那个预测能力较好的模型,那么什么样的函数/模型就是预测好的呢?有没有什么评判标准?
张俊红
2018/10/08
1.1K0
机器学习中的损失函数
统计学习方法法导论_1
统计学习的对象是数据data。统计学中的数据通常是以变量或者变量组来表示数据。数据分为连续型和离散型,书中主要讨论的是离散型数据。
皮大大
2021/03/02
7210
THU深圳研究院:大数据机器学习
B站视频:https://www.bilibili.com/video/av67224054
故事尾音
2019/12/18
6330
THU深圳研究院:大数据机器学习
StatisticLearning
1.泛化误差/期望损失(风险函数):是理论模型f(X)关于联合分布P(X,Y)的平均意义下的损失.
DuncanZhou
2018/09/04
5600
【深度学习】机器学习概述(一)机器学习三要素——模型、学习准则、优化算法
  机器学习是从有限的观测数据中学习(或“猜测”)出具有一般性的规律,并可以将总结出来的规律推广应用到未观测样本上。   机器学习方法可以粗略地分为三个基本要素:模型、学习准则、优化算法。
Qomolangma
2024/07/30
8290
【深度学习】机器学习概述(一)机器学习三要素——模型、学习准则、优化算法
机器学习系列-机器学习是什么?
概述 机器学习现在已经运用在很多领域和行业,比如通过机器学习系统来提高自己系统的准确率和目标、进行商业数据的分析与预测等等。机器学习是关于计算机基于数据构建的概率统计模型并运用模型对数据进行预测和分析。 机器学习:一个系统能够通过执行某个过程改进它的性能,它的对象是数据,从数据出发,提取数据的特征,抽象出数据的模型,发现数据中的知识,又回到对数据的分析和预测中去。 机器学习关于数据的基本假设是同类数据具有一定的统计规律性,这是统计学习的前提。 机器学习方法 机器学习致力于研究如何通过计算的手段,利用经验来改
吕海峰
2018/04/03
8900
机器学习系列-机器学习是什么?
《统计学习方法》笔记-统计学习方法概论-1
统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科。
iOSDevLog
2019/05/31
5440
《统计学习方法》读书笔记
【第1章】 统计学习方法概论 【第2章】 感知机 【第3章】 k 近邻法 【第4章】 朴素贝叶斯法 【第5章】 决策树 【第6章】 逻辑斯谛回归与最大熵模型 【第7章】 支持向量机 【第8章】 提升方法 【第9章】 EM算法及其推广 【第10章】 隐马尔科夫模型 【第11章】 条件随机场 【第12章】 统计学习方法总结
echobingo
2018/09/26
1.6K0
机器学习14:模型评估与性能提升
6.2,验证曲线、学习曲线、ROC曲线、准确度、精确率、召回率、F1_Score
用户5473628
2019/08/08
1.1K0
《统计学习方法》 ( 李航 ) 读书笔记
因为要准备面试,本文以李航的《统计学习方法》为主,结合西瓜书等其他资料对机器学习知识做一个整理。
石晓文
2019/06/04
1.7K0
《统计学习方法》 ( 李航 ) 读书笔记
机器学习笔记,换个视角看损失函数
损失函数可以说是机器学习当中的核心概念了,损失函数的英文叫做loss function,这里的损失其实可以理解成误差的意思。一个模型的误差越小,那么自然说明模型的结果越逼近真实值,也就是效果越好。
TechFlow-承志
2022/09/22
3390
推荐阅读
相关推荐
《统计学习方法》笔记一 统计学习方法概论
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档