Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >机器学习笔记——Logistic回归算法

机器学习笔记——Logistic回归算法

原创
作者头像
阳光罗诺
修改于 2018-10-08 02:18:09
修改于 2018-10-08 02:18:09
5060
举报

参考:

吴恩达 机器学习

关于分类问题的例子:

垃圾邮件分类问题

分类网上交易

对肿瘤的分析辨别预测

logistic回归又称logistic回归分析,是一种广义的线性回归分析模型,常用于数据挖掘,疾病自动诊断,经济预测等领域。

基本思想:

1.寻找合适的假设函数,即分类函数,用以预测输入数据的判断结果;构造代价函数,即损失函数,用以表2.示预测的输出结果与训练数据的实际类别之间的偏差;

3.最小化代价函数,从而获取最优的模型参数。

假设函数(分类函数)修改得到: h_θ (x)=g(θ^T x)

其中函数g为

g(z)=1/(1+e^z )

其中g函数是Sigmoid函数或者是逻辑函数

Sigmoid函数图像

从图像观察可以得到g(z)函数的值一直都在0~1之间,所以就可以推断得出h(x)的值也一定是在0~1之间。

所以假设函数和逻辑函数结合就得到:

h_θ (x)=g(θ^T x)=1/(1+e^(-θ^T X) )

关于肿瘤预测问题的例子:

课程截图
课程截图

决策界限

假设我们有一个训练集如图:(假设我们都已经拟合了这些数据θ=-311)

线性边界:

课程截图:线性边界
课程截图:线性边界

非线性边界:

课程截图:非线性边界
课程截图:非线性边界

决策边界不是训练集的属性,而是假设本身及其参数的属性。

只要给定了参数向量θ,对应的图像也会随之确定。

hθ(x)函数的值表示结果取1的概率,因此对于输入x分类结果为类别1和类别0的概率分别为【概率公式】:

P(y=1 |x;θ)=h_θ (x)
P(y=0 |x;θ)=1-h_θ (x)

代价函数:

代价函数
代价函数

其中:

代价函数
代价函数

当y=1的时候:

当y=1时
当y=1时

当y=0的时候:

当y=0时
当y=0时

等价于:

Cost(h_θ (x),y)=-y*log⁡(h_θ (x))-(1-y)*log⁡(1-h_θ (x))

代入代价函数,得:

课程截图
课程截图

其中的Cost函数和J函数都是基于最大似然估计法推导得到的。【关于最大似然估计法后续笔记会详细提到】

为了能够拟合函数,我们要找出让J函数取得最小值的参数θ,最小化代价函数的方法,是使用梯度下降法。

如果说想要获得代价函数J的最小值,重复θ的更新过程:

θ_j=θ_j-α ∂/(∂θ_j ) T(θ),J=0,1,2……n 其中α是学习步长

求偏导得:

推导步骤
推导步骤

最后得过程可以改写为:

多元分类:一对多

原理:

假如我们由一个训练集(如图),包含着三个类别:三角形表示y=1,正方形表示y=2,叉表示y=3

通常得解决方式就是:将这个训练集转化为三个独立得二元分类问题。

课程截图
课程截图

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【重温经典】吴恩达机器学习课程学习笔记七:Logistic回归
【导读】前一段时间,专知内容组推出了春节充电系列:李宏毅2017机器学习课程学习笔记,反响热烈,由此可见,大家对人工智能、机器学习的系列课程非常感兴趣,近期,专知内容组推出吴恩达老师的机器学习课程笔记系列,重温机器学习经典课程,希望大家会喜欢。 【重温经典】吴恩达机器学习课程学习笔记一:监督学习 【重温经典】吴恩达机器学习课程学习笔记二:无监督学习(unsupervised learning) 【重温经典】吴恩达机器学习课程学习笔记三:监督学习模型以及代价函数的介绍 【重温经典】吴恩达机器学习课程学习笔记四
WZEARW
2018/04/16
1.1K0
【重温经典】吴恩达机器学习课程学习笔记七:Logistic回归
【机器学习】Logistic 分类回归算法 (二元分类 & 多元分类)
所以综上所诉,用线性回归来用于分类问题通常不是一个好主意,并且线性回归的值会远远偏离0或1,这显示不太合理。
计算机魔术师
2022/09/30
2.1K0
【机器学习】Logistic 分类回归算法 (二元分类 & 多元分类)
线性回归回顾与logistic回归 | 机器学习笔记
01 再看线性回归 之前我们选择线性回归的时候,只是认为那些数据看上去很符合线性的样子,选择最小平方损失函数的时候,也是直接提出来的,没有考虑过为什么会是这个样子。接下来就从概率的角度来解释这些问题。
用户1332428
2018/03/08
1.2K0
线性回归回顾与logistic回归 | 机器学习笔记
Python3《机器学习实战》学习笔记(六):Logistic回归基础篇之梯度上升算法
版权声明:本文为博主原创文章,未经博主允许不得转载。个人网站:http://cuijiahua.com。 https://blog.csdn.net/c406495762/article/details/77723333
Jack_Cui
2019/05/25
7570
第七章 Logistic 回归
蓝色:加入新的训练集后,之前拟合的线性函数,显然适用于新的数据集。但是,此时我们因为新的数据集的加入,拟合出一个新的线性函数(蓝色),此时,若还用 0.5 作为阈值,那么分类结果就不那么理想了。
tomas家的小拨浪鼓
2019/03/08
5320
第七章 Logistic 回归
【Python】机器学习之逻辑回归
(1)安装机器学习必要库,如NumPy、Pandas、Scikit-learn等;
SarPro
2024/02/20
2740
【Python】机器学习之逻辑回归
机器学习第7天:深入了解逻辑回归
简单来说, 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。
K同学啊
2019/01/22
6370
机器学习(十五) ——logistic回归实践
机器学习(十五)——logistic回归实践 (原创内容,转载请注明来源,谢谢) 一、概述 logistic回归的核心是sigmoid函数,以及分类方式。当sigmoid值大于0.5时,判断结果为1,小于0.5时判断结果为0。公式为g(z)=1/(1+e-z)。其中,z=w0x0+w1x1…+wnxn,w为x的权重,其中x0=1。 决策边界是用于区分分类结果的一条线,线的两边代表分类的两种结果。 之前提到logistic,是使用梯度下降算法,用于获取代价函数J最小值时的参数。现在使用梯
用户1327360
2018/03/07
7340
机器学习(十五) ——logistic回归实践
机器学习 学习笔记(20)深度前馈网络
深度前馈网络(deep feedforward network),也叫做前馈神经网络(feedforward neural network)或者多层感知机(multilayer perceptron,MLP),是典型的深度学习模型。前馈网络的目标是近似某个函数
2018/09/04
1.9K0
机器学习 学习笔记(20)深度前馈网络
【机器学习界的“Hello World“ 】Logistic 分类回归算法 (二元分类 & 多元分类)
假设有如下的八个点($y=1 或 0)$,我们需要建立一个模型得到准确的判断,那么应该如何实现呢
计算机魔术师
2023/10/10
3410
【机器学习笔记】:从零开始学会逻辑回归(一)
逻辑回归是一个非常经典,也是很常用的模型。之前和大家分享过它的重要性:5个原因告诉你:为什么在成为数据科学家之前,“逻辑回归”是第一个需要学习的
Python数据科学
2018/12/17
8610
【机器学习笔记】:从零开始学会逻辑回归(一)
机器学习:Logstic回归
如果某个问题的解可以分为几个离散的值,则称这种问题为分类问题。如果只有0或1两种解,则称为一个二元分类问题,其中0称为负类,1称为正类,由于二元分类问题比较简单,下面都以二元分类问题为例,最后会介绍多元分类问题。分类问题如果采取线性回归的方式去拟合,会得到很差的结果。如下图,假设我们按照
Here_SDUT
2022/09/19
7420
机器学习:Logstic回归
6 逻辑回归(Logistic Regression)
6 逻辑回归(Logistic Regression) 6.1 分类(Classification) 6.2 假设函数表示(Hypothesis Representation) 6.3 决策边界(Decision Boundary) 6.4 代价函数(Cost Function) 6.5 简化的成本函数和梯度下降(Simplified Cost Function and Gradient Descent) 6.6 进阶优化(Advanced Optimization) 6.7 多类别分类: 一对多(Multiclass Classification: One-vs-all) 7 正则化(Regularization) 7.1 过拟合问题(The Problem of Overfitting) 7.2 代价函数(Cost Function) 7.3 线性回归正则化(Regularized Linear Regression) 7.4 逻辑回归正则化(Regularized Logistic Regression)
用户2188327
2020/07/02
8090
6 逻辑回归(Logistic Regression)
【NLP机器学习基础】从线性回归和Logistic回归开始
古语常云:“大道至简”,万事万物纷繁复杂,最终却归至几个最简单的道理。我常常在想,如今很火的AI领域是否也是如此。将AI真正学懂学会的过程就像一场遥不可及的漫长攀登,起始于晦涩难懂的数学领域(高数/线代/概率论),踉跄于公式满篇的机器学习,还要翻越神经网络、编程与数据科学库等重重大山,最终抵达应用的那个分岔路口,也从不是彼岸,只是新的开始。
用户1508658
2020/02/19
1.1K0
算法研习:Logistic算法原理分析
在这篇文章中,我将用数学解释逻辑回归,介绍逻辑回归、sigmoid函数以及最大似然估计三者之间的关系。然后使用python中的梯度下降实现一个逻辑回归示例。本文主要包括五个问题:
深度学习与Python
2019/06/18
1.1K0
Logistic回归基础篇之梯度上升算法
作者:崔家华 编辑:赵一帆 一、前言 本文从Logistic回归的原理开始讲起,补充了书上省略的数学推导。本文可能会略显枯燥,理论居多,Sklearn实战内容会放在下一篇文章。自己慢慢推导完公式,还是蛮开心的一件事。 二、Logistic回归与梯度上升算法 Logistic回归是众多回归算法中的一员。回归算法有很多,比如:线性回归、Logistic回归、多项式回归、逐步回归、令回归、Lasso回归等。我们常用Logistic回归模型做预测。通常,Logistic回归用于二分类
机器学习算法工程师
2018/03/06
2.7K0
Logistic回归基础篇之梯度上升算法
入门 | 从原理到应用:简述Logistic回归算法
作者:Niklas Donges 机器之心编译 参与:乾树、李泽南 Logistic 回归是二分类任务中最常用的机器学习算法之一。它的设计思路简单,易于实现,可以用作性能基准,且在很多任务中都表现很好
机器之心
2018/06/11
1.3K0
【ML】逻辑回归——详细概述
逻辑回归在20世纪早期被用于生物科学。它后来被用于许多社会科学应用。因变量(目标)为分类变量时采用Logistic回归。
陆勤_数据人网
2018/12/26
8160
理解 logistic 回归
logistic回归由Cox在1958年提出[1],它的名字虽然叫回归,但这是一种二分类算法,并且是一种线性模型。由于是线性模型,因此在预测时计算简单,在某些大规模分类问题,如广告点击率预估(CTR)上得到了成功的应用。如果你的数据规模巨大,而且要求预测速度非常快,则非线性核的SVM、神经网络等非线性模型已经无法使用,此时logistic回归是你为数不多的选择。
SIGAI学习与实践平台
2018/09/14
3K0
理解 logistic 回归
常见面试算法:Logistic回归、树回归
Logistic 回归 或者叫逻辑回归 虽然名字有回归,但是它是用来做分类的。其主要思想是: 根据现有数据对分类边界线(Decision Boundary)建立回归公式,以此进行分类。
机器学习AI算法工程
2019/10/28
7630
常见面试算法:Logistic回归、树回归
相关推荐
【重温经典】吴恩达机器学习课程学习笔记七:Logistic回归
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档