前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【机器学习】知否?知否?广义线性模型

【机器学习】知否?知否?广义线性模型

作者头像
用户1737318
发布于 2019-11-09 15:43:44
发布于 2019-11-09 15:43:44
7460
举报
文章被收录于专栏:人工智能头条人工智能头条

本文介绍了广义线性模型,其中线性回归、logistic回归,softmax回归同属于广义线性模型。从指数分布家族推导出高斯分布、伯努利分布对应的指数分布家族形式,以最大化期望为目标推导出线性回归、logistic回归,softmax回归的目标函数,进一步强调模型的概率解释性。

作者 | 文杰

编辑 | yuquanle

广义线性模型

从线性回归,logistic回归,softmax回归,最大熵的概率解释来看,我们会发现线性回归是基于高斯分布+最大似然估计的结果,logistic回归是伯努利分布+对数最大似然估计的结果,softmax回归是多项分布+对数最大似然估计的结果,最大熵是基于期望+对数似然估计的结果。前三者可以从广义线性模型角度来看。

A、指数分布家族

指数分布家族是指可以表示为指数形式的概率分布,指数分布的形式如下:

其中是分布的自然参数,是充分统计量,通常. 当参数都固定的时候,就定义了一个以为参数的函数族。

实际上大多数的概率分布都属于指数分布家族,比如:

1)伯努利分布 0-1问题

2)二项分布,多项分布 多取值 多次试验

3)泊松分布 计数过程

4)伽马分布与指数分布

5)分布

6)Dirichlet分布

7)高斯分布

现在我们将高斯分布和伯努利分布用指数分布家族的形式表示:

高斯分布:

对应到指数分布家族有:

伯努利分布:

对应到指数分布家族有:

B、广义线性模型

在了解指数分布家族之后,我们再来看广义线性模型的形式定义与假设:

1)

给定样本x与参数,样本分类y服从指数分布家族的某个分布。

2)给定一个x,我们目标函数为:

3)

三条假设,第一条是为了能在指数分布范围内讨论y的概率,第二条假设是为了使得预测值服从均值为实际值得一个分布,第三条假设是为了设计的决策函数(模型)是线性的。

由高斯分布的指数家族分布形式与广义线性模型的定义有线性回归的模型为:

同样由伯努利分布的指数家族分布形式与广义线性模型的定义有logistic回归的模型为(解释了为什么是sigmoid函数):

所以,在广义线性模型中,决策函数为线性函数是基于广义线性模型的第三条假设,而最终的模型是依赖于模型服从什么样的分布,比如 高斯分布,伯努利分布。

同样,我们应用logistic回归到softmax回归的一套定义,下面再来看多项分布对应的softmax回归:

对应到指数分布家族有:

最后由最大似然估计有softmax的目标函数如下:

到此,广义线性模型解释线性回归,logistic回归,softmax回归基本算完,可以看出线性函数是基于广义线性模型的第三条假设,采用sigmoid函数是因为伯努利分布,而softmax回归是logistic回归高维推广。

— 完 —

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-11-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能头条 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
机器学习笔记——Logistic回归算法
logistic回归又称logistic回归分析,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。
阳光罗诺
2018/10/05
5040
机器学习笔记——Logistic回归算法
CS229 课程笔记之三:广义线性模型
实际上这些模型都是一个更为广泛的模型族的特例,这个模型族被称为广义线性模型(Generalized Linear Models)。
口仆
2020/08/17
5360
【机器学习】知否?知否?广义线性模型
本文介绍了广义线性模型,其中线性回归、logistic回归,softmax回归同属于广义线性模型。从指数分布家族推导出高斯分布、伯努利分布对应的指数分布家族形式,以最大化期望为目标推导出线性回归、logistic回归,softmax回归的目标函数,进一步强调模型的概率解释性。
yuquanle
2019/11/14
2960
【机器学习】知否?知否?广义线性模型
机器学习之回归(二):广义线性模型(GLM)
导语:本文在上篇线性回归的基础上,延伸到广义线性模型,并把广义线性模型目的、假设条件来源,指数族分布、连接函数等各个函数的关系都进行详细地解释。最后用两个常见的GLM特例Logistics回归、So
汪毅雄
2017/08/28
11.1K1
机器学习之回归(二):广义线性模型(GLM)
【技术分享】机器学习之回归(二)---广义线性模型(GLM)
导语:本文在上篇线性回归的基础上,延伸到广义线性模型,并把广义线性模型目的、假设条件来源,指数族分布、连接函数等各个函数的关系都进行详细地解释。最后用两个常见的GLM特例Logistics回归、Softmax模型进行了推导。
腾讯云TI平台
2019/09/05
2.7K0
斯坦福CS229机器学习笔记-Lecture4 - 指数分布族 和 广义线性模型 GLM
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/Teeyohuang/article/details/80864479
TeeyoHuang
2019/05/25
9610
机器学习课程_笔记04
牛顿方法 首先假设存在一个函数 ,然后算法的目标是找到一个 ,使得 。 牛顿方法的一次迭代: 持续地迭代下去,就可以得到 。 同样的,假设现在存在一个函数 ,也就是对数似然率,目标是找到一个 ,使得 最大化。可以容易想到 的一阶导数 为0时, 即达到最大化了。 同样运用牛顿方法,其一次迭代: 事实证明牛顿方法是一个收敛速度非常快的算法,它的收敛速度用术语可以描述为二次收敛。如果不考虑常量因子,牛顿方法的每一次迭代都会使你正在逼近的解的有效数字的数目加倍。当实现牛顿方法时,对
jeremyxu
2018/05/11
9650
广义线性模型(GLM)专题(2)——带约束的假设检验,模型诊断,0/1变量分析与建模
这一节我们继续广义线性模型的相关内容去说。事实上在这一节我们会发现,我们更多会回到一些更简单和实际的应用中来,因此这一节的内容不会有上一节那么难以理解,但相对应的,基本的概念和背景知识会比较多。我们也会提供对应的习题帮助大家理解。
学弱猹
2022/03/30
1.7K0
广义线性模型(GLM)专题(2)——带约束的假设检验,模型诊断,0/1变量分析与建模
机器学习与深度学习总结
梯度下降法沿着梯度的反方向进行搜索,利用了函数的一阶导数信息。梯度下降法的迭代公式为:
二哥聊运营工具
2021/12/17
4400
机器学习与深度学习总结
机器学习算法中的概率方法
AI 科技评论按,本文作者张皓,目前为南京大学计算机系机器学习与数据挖掘所(LAMDA)硕士生,研究方向为计算机视觉和机器学习,特别是视觉识别和深度学习。
AI科技评论
2019/10/31
1.3K0
机器学习算法中的概率方法
逻辑回归和sigmod函数的由来
记得刚工作的时候,用的第一个模型就是逻辑回归。虽然从大二(大一暑假参加系里建模培训,感谢老师!)就参加了全国大学生数学建模比赛,直到研究生一直在参加数学建模,也获了大大小小一些奖。
阿黎逸阳
2020/09/08
2.5K0
逻辑回归和sigmod函数的由来
广义线性模型(GLM)及其应用
来源:Deephub Imba本文约1800字,建议阅读5分钟广义线性模型是线性模型的扩展,通过联系函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。 广义线性模型[generalize linear model(GLM)]是线性模型的扩展,通过联系函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。它的特点是不强行改变数据的自然度量,数据可以具有非线性和非恒定方差结构。是线性模型在研究响应值的非正态分布以及非线性模型简洁直接的线性转化时的一种发展。 在广义线性模型的理论框架中,则假设目
数据派THU
2022/09/07
1.5K0
广义线性模型(GLM)及其应用
[机器学习篇]机器学习知识总结篇
4、Python基础1 - Python及其数学库 解释器Python2.7与IDE:Anaconda/Pycharm Python基础:列表/元组/字典/类/文件 Taylor展式的代码实现 numpy/scipy/matplotlib/panda的介绍和典型使用 多元高斯分布 泊松分布、幂律分布 典型图像处理
统计学家
2019/04/08
9020
《机器学习》学习笔记(三)——线性模型
分类的核心就是求出一条直线w的参数,使得直线上方和直线下方分别属于两类不同的样本
荣仔_最靓的仔
2021/02/02
1.7K0
《机器学习》学习笔记(三)——线性模型
【机器学习】对数线性模型之Logistic回归、SoftMax回归和最大熵模型
本文介绍对数线性分类模型,在线性模型的基础上通过复合函数(sigmoid,softmax,entropy )将其映射到概率区间,使用对数损失构建目标函数。首先以概率的方式解释了logistic回归为什么使用sigmoid函数和对数损失,然后将二分类扩展到多分类,导出sigmoid函数的高维形式softmax函数对应softmax回归,最后最大熵模型可以看作是softmax回归的离散型版本,logistic回归和softmax回归处理数值型分类问题,最大熵模型对应处理离散型分类问题。
yuquanle
2019/11/04
1.9K0
广义线性模型应用举例之泊松回归及R计算
在前文“广义线性模型”中,提到广义线性模型(GLM)可概括为服务于一组来自指数分布族的响应变量的模型框架,正态分布、指数分布、伽马分布、卡方分布、贝塔分布、伯努利分布、二项分布、负二项分布、多项分布、泊松分布、集合分布等都属于指数分布族,并通过极大似然估计获得模型参数。
王诗翔呀
2020/07/21
9.1K0
广义线性模型应用举例之泊松回归及R计算
博客 | 机器学习中的数学基础(实战SVM)
机器学习中的监督部分大多从样本数据开始,首先构建满足一定假设且逻辑合理、理论完备的“带参”假设函数
AI研习社
2018/12/28
7900
博客 | 机器学习中的数学基础(实战SVM)
【机器学习笔记】:从零开始学会逻辑回归(一)
逻辑回归是一个非常经典,也是很常用的模型。之前和大家分享过它的重要性:5个原因告诉你:为什么在成为数据科学家之前,“逻辑回归”是第一个需要学习的
Python数据科学
2018/12/17
8450
【机器学习笔记】:从零开始学会逻辑回归(一)
深入广义线性模型:分类和回归
【导读】本文来自AI科学家Semih Akbayrak的一篇博文,文章主要讨论了广义的线性模型,包括:监督学习中的分类和回归两类问题。虽然关于该类问题的介绍文章已经很多,但是本文详细介绍了几种回归和分
WZEARW
2018/04/13
1.9K0
深入广义线性模型:分类和回归
广义线性模型(GLM)及其应用
广义线性模型[generalize linear model(GLM)]是线性模型的扩展,通过联系函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。它的特点是不强行改变数据的自然度量,数据可以具有非线性和非恒定方差结构。是线性模型在研究响应值的非正态分布以及非线性模型简洁直接的线性转化时的一种发展。
deephub
2022/11/11
9200
广义线性模型(GLM)及其应用
推荐阅读
相关推荐
机器学习笔记——Logistic回归算法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档