前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Andrew Ng机器学习课程笔记(三)之正则化

Andrew Ng机器学习课程笔记(三)之正则化

作者头像
努力努力再努力F
发布2018-09-11 11:11:23
3540
发布2018-09-11 11:11:23
举报
文章被收录于专栏:fangyangcoder

Andrew Ng机器学习课程笔记(三)之正则化

版权声明:本文为博主原创文章,转载请指明转载地址

http://www.cnblogs.com/fydeblog/p/7365475.html

前言

学习了Andrew Ng课程,开始写了一些笔记,现在写完第5章了,先把这5章的内容放在博客中,后面的内容会陆续更新!

这篇博客主要记录Andrew Ng课程第三章正则化,主要介绍了线性回归和逻辑回归中,怎样去解决欠拟合和过拟合的问题

简要介绍:在进行线性回归或逻辑回归时,常常会出现以下三种情况

回归问题:

第一个模型是一个线性模型,欠拟合,不能很好地适应我们的训练中;第三个模型是一个四次方的模型,过于强调拟合原始数据,而丢失了算法的本质:预测新数据。我们可以看出, 若给出一个新的值使之预测,它将表现的很差,是过拟合,虽然能非常好地适应我们的训练集但在新输入变量进行预测时可能会效果不好;而中间的模型似乎最合适。

分类问题也一样:

问题来了,那么解决方案也出现了,那就是正则化。

1. 改造代价函数

上面出现的过拟合是因为那些高次项导致了它们的产生,所以如果我们能让这些高次项的系数接近于0的话,我们就能很好的拟合了。

试想一下,将上面的代价函数改动如下,增加了关于和两项

这样做的话,我们在尝试最小化代价时也需要将这个表达式纳入考虑中,并最终导致选择较小一些的θ3和θ4,那样就从过拟合过渡到拟合状态。

经过正则化处理的模型与原模型的可能对比如下图所示:

2. 正则化线性回归

(1)基于梯度下降

正则化线性回归的代价函数为:

如果我们要使用梯度下降法令这个代价函数最小化,因为我们未对θ0进行正则化,所以梯度下降算法将分两种情形:

转换一下,可以写为

可见,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的基础上令θ值减少了一个额外的值。

(2) 正规方程

3. 正则化逻辑回归

相应的代价函数:

梯度下降算法:

虽然正则化的逻辑回归中的梯度下降和正则化的线性回归中的表达式看起来一样,但由于两者的h(x)不同所以还是有很大差别。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017-08-15 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 改造代价函数
  • 2. 正则化线性回归
  • 3. 正则化逻辑回归
相关产品与服务
腾讯云 TI 平台
腾讯云 TI 平台(TencentCloud TI Platform)是基于腾讯先进 AI 能力和多年技术经验,面向开发者、政企提供的全栈式人工智能开发服务平台,致力于打通包含从数据获取、数据处理、算法构建、模型训练、模型评估、模型部署、到 AI 应用开发的产业 + AI 落地全流程链路,帮助用户快速创建和部署 AI 应用,管理全周期 AI 解决方案,从而助力政企单位加速数字化转型并促进 AI 行业生态共建。腾讯云 TI 平台系列产品支持公有云访问、私有化部署以及专属云部署。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档