前往小程序,Get更优阅读体验!
立即前往
发布
社区首页 >专栏 >吴恩达机器学习笔记8-代价函数的直观理解之一

吴恩达机器学习笔记8-代价函数的直观理解之一

作者头像
讲编程的高老师
发布2020-08-14 10:20:41
发布2020-08-14 10:20:41
3990
举报

本文是吴恩达《机器学习》视频笔记第8篇,对应第1周第8个视频。

“3Model and Cost Function5_Cost Function - Intuition I”

01

视频

02

笔记

上一视频中给出了代价函数的数学定义,即估计值与实际值的差。也就是我们有自变量x,用模型算出对应的输出,和这个x对应的实际的输出y之差。

以一元线性模型为例:

假设函数有两个参数,表现为平面直角坐标系中的直线。我们的目标就是调整这两个参数让代价函数(cost function)最小。

利用我们初中时学过的知识,通过平移坐标系,我们有办法让第一个参数为零,只需要考虑直线的斜率就行了,也就是说我们可以让代价函数变得更简单一点。

这里有两个函数,分别是模型描述的函数h(x),和与之有关的代价函数J.

如下图,这两个函数比较有意思的是:每个

在左边的坐标系中确定一条直线,而对应右边坐标系中的一个点。如果我们找到右边最小点对应的那个\theta, 我们也就找到了左边能最好拟合测试样本的那条最靓的直线。

那么,代价函数的作用也就很明显了,通过代价函数的帮助,我们可以把求最好的那个拟合直线的问题变成一个求极值点的问题,复杂的问题好像简单化了。

那是不是这样呢?还要继续往下学习。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-07-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 讲编程的高老师 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档