Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >吴恩达深度学习笔记 2.6~2.9 logistic中的梯度下降

吴恩达深度学习笔记 2.6~2.9 logistic中的梯度下降

作者头像
Dar_Alpha
发布于 2018-09-03 08:43:11
发布于 2018-09-03 08:43:11
7460
举报
文章被收录于专栏:技术小站技术小站

之前我们已经了解了Coss Function的定义,它是一个convex,所以我们能找到它的全局最优解,我们可以先可以先随便选取一组w,b,求得刚开始J(w,b)对w的偏导,用公式:

我们可以对w进行更新,其中α为学习率,为梯度下降的步长,α越大,步长越大,同理也可以对b更新,最后经过一步步迭代,我们能够找到最优解使得Cost Function最小.

逻辑回归中包含了正向传播和反向传播,用一个计算图来表示其过程

计算图:

举一个简单的例子例:

把j(a,b,c)看作logistic回归成本函数j=3(a+bc),它的计算过程为让u=bc,v=a+u 得j=3v

其中正向传播为从左到右得到成本函数的过程

反向传播为对其进行求导得到dJ/da,dJ/db,dJ/dc

现在对一个逻辑回归进行梯度计算:

给定的逻辑回归中,Loss Function 表达式如下:

对于正向传播非常简单,假设输入样本x有两个特征值(x1,x2)则对应的w为w1,w2,则对应的最后的Loss Fuction如下:

 对于反向传播计算如下:

得到dz以后就可以对w1,w2进行求导了

梯度下降算法

上述表示的是单个样本的logistic回归,对于多个样本的logistic回归表示如下:

Cost Function为:

假设该logistic回归有两个特征值,那么dw1,dw2,db表示如下:

算法流程图如下:

代码语言:text
AI代码解释
复制
J=0; dw1=0; dw2=0; db=0;        //对w1,w2,b,以及J初始化
for i = 1 to m
    z(i) = wx(i)+b;
    a(i) = sigmoid(z(i));
    J += -[y(i)log(a(i))+(1-y(i))log(1-a(i));
    dz(i) = a(i)-y(i);
    dw1 += x1(i)dz(i);
    dw2 += x2(i)dz(i);
    db += dz(i);
J /= m;
dw1 /= m;
dw2 /= m;
db /= m;完成上述算法即完成了一次迭代,通过公式:对其进行更新,这样经过多次迭代后,就能得出最优解
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-07-15 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
神经网络和深度学习(二) ——从logistic回归谈神经网络基础
神经网络和深度学习(二)——从logistic回归谈神经网络基础 (原创内容,转载请注明来源,谢谢) 一、概述 之前学习机器学习的时候,已经学过logistic回归,不过由于神经网络中,一些思想会涉及到logistic,另外会拿一些神经网络用到的解决方案,以logistic来举例,更浅显易懂(例如BP算法)。 因此,这里就再次复习logistic回归及其梯度下降、代价函数等,主要是讲述和后面学习神经网络有关的内容,其他部分会快速略过。 二、logistic输出函数 logistic是解决
用户1327360
2018/03/07
1.9K0
神经网络和深度学习(二) ——从logistic回归谈神经网络基础
Coursera吴恩达《神经网络与深度学习》课程笔记(2)-- 神经网络基础之逻辑回归
上节课我们主要对深度学习(Deep Learning)的概念做了简要的概述。我们先从房价预测的例子出发,建立了标准的神经网络(Neural Network)模型结构。然后从监督式学习入手,介绍了St
红色石头
2017/12/28
8850
Coursera吴恩达《神经网络与深度学习》课程笔记(2)-- 神经网络基础之逻辑回归
学习笔记 | 吴恩达之神经网络和深度学习
机器学习 机器学习研究的是计算机怎样模拟人类的学习行为,以获取新的知识或技能,并重新组织已有的知识结构使之不断改善自身。简单的说,就是计算机从数据中学习规律和模式,以应用在新数据上做预测的任务。 深度学习概念 深度学习指的是训练神经网络,有时候规模很大。 线性回归 回归函数,例如在最简单的房价预测中,我们有几套房屋的面积以及最后的价格,根据这些数据来预测另外的面积的房屋的价格,根据回归预测,在以房屋面积为输入x,输出为价格的坐标轴上,做一条直线最符合这几个点的函数,将它作为根据面积预测价格的根据,这条线就是
用户1332428
2018/03/09
1.3K0
学习笔记 | 吴恩达之神经网络和深度学习
吴恩达 —— 深度学习 Course 1 笔记
Course1:神经网络和深度学习,包括: ---- [1] Week1:深度学习概述 [2] Week2:神经网络基础 [3] Week3:浅层神经网络 [4] Week4:深层神经网络 [
echobingo
2018/04/25
9320
吴恩达 —— 深度学习 Course 1 笔记
深度学习笔记-神经网络基础
---- Binary Classification logistic是一个用于二元分类的算法,所谓二元分类就是该预测结果只有两种类别。比如:预测图片中的是不是cat,只存在是或者不是。1代表cat,
吕海峰
2018/04/03
6950
深度学习笔记-神经网络基础
神经网络和深度学习(吴恩达-Andrew-Ng):一二周学习笔记
机器学习: 机器学习研究的是计算机怎样模拟人类的学习行为,以获取新的知识或技能,并重新组织已有的知识结构使之不断改善自身。简单的说,就是计算机从数据中学习规律和模式,以应用在新数据上做预测的任务。
用户1740424
2018/07/23
2.5K0
神经网络和深度学习(吴恩达-Andrew-Ng):一二周学习笔记
深度学习神经网络中的梯度检查
多维梯度 LINEAR - > RELU - > LINEAR - > RELU - > LINEAR - > SIGMOID
夜雨飘零
2020/05/06
8660
【中文】【吴恩达课后编程作业】Course 1 - 神经网络和深度学习 - 第四周作业(1&2)
上一篇:【课程1 - 第四周测验】※※※※※ 【回到目录】※※※※※下一篇:【课程2 - 第一周测验】
Steve Wang
2019/05/28
1.6K0
【中文】【吴恩达课后编程作业】Course 1 - 神经网络和深度学习 - 第四周作业(1&2)
深度学习教程 | 神经网络基础
本系列为吴恩达老师《深度学习专项课程(Deep Learning Specialization)》学习与总结整理所得,对应的课程视频可以在这里查看。
ShowMeAI
2022/04/14
1.2K0
深度学习教程 | 神经网络基础
【中文】【吴恩达课后编程作业】Course 2 - 改善深层神经网络 - 第二周作业
上一篇:【课程2 - 第二周测验】※※※※※ 【回到目录】※※※※※下一篇:【课程2 - 第三周测验】
Steve Wang
2019/05/28
9860
【中文】【吴恩达课后编程作业】Course 2 - 改善深层神经网络 - 第二周作业
Coursera吴恩达《神经网络与深度学习》课程笔记(3)-- 神经网络基础之Python与向量化
根据用户提供的文章内容,撰写摘要总结。
红色石头
2017/12/28
2.4K0
Coursera吴恩达《神经网络与深度学习》课程笔记(3)-- 神经网络基础之Python与向量化
Deeplearning.ai 课程笔记第一部分:神经网络与深度学习
神经网络就是由若干神经元组合而成的网络结构,其包含输入层、隐藏层和输出层。而含有多层隐藏层的神经网络即为深度神经网络。下图给出了一个深度神经网络的示意图。
口仆
2020/08/17
1K0
深度学习-优化参数
L2正则化依赖于这样的假设:具有小权重的模型比具有大权重的模型更简单。因此,通过惩罚成本函数中权重的平方值,您可以将所有权重驱动为更小的值。拥有大重量的成本太昂贵了!这导致更平滑的模型,其中输出随输入变化而变化更慢。
freesan44
2021/10/12
5820
吴恩达深度学习笔记 3.1~3.11 浅层神经网络
神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多了一层,多出的中间一层叫隐藏层,那么,神经网络的计算就相当于多进行一次逻辑回归的计算
Dar_Alpha
2018/09/03
9450
吴恩达深度学习笔记 3.1~3.11 浅层神经网络
吴恩达深度学习笔记 course 2 1.1~1.14 深度学习的实用层面
在构建一个神经网络的时候我们往往需要设计很多参数,如:layers,learning rates ,acivation functions,hidden units, 而这些参数我们往往不能一次性就能设计到成为了最佳的参数,往往是我们自己有一些想法,然后写出代码,开始实验,然后开始调整,再次更改代码实验,就这样一步步调整,得到最佳的参数.使神经网络的性能最佳.
Dar_Alpha
2018/09/03
6540
吴恩达深度学习笔记 course 2 1.1~1.14 深度学习的实用层面
构建深度神经网络实现猫的二分类
这里导入了两个工具类,可以从这里下载,这里包含了这个函数和用到的数据集,其中用到了h5py,如果读者没有安装的话,要先用pip安装这个库,还有以下用到的库也要安装。
夜雨飘零
2020/05/06
1.4K0
01.神经网络和深度学习 W3.浅层神经网络(作业:带一个隐藏层的神经网络)
编写辅助函数,计算步骤1-3 将它们合并到 nn_model()的函数中 学习正确的参数,对新数据进行预测
Michael阿明
2021/02/19
5700
深度学习-神经网络
说明:反向传播通常是深度学习中最难(最具数学性)的部分。为了帮助您,这里再次是关于反向传播的演讲的幻灯片。您将要使用此幻灯片右侧的六个等式,因为您正在构建向量化实现。
freesan44
2021/10/12
3790
深度学习-多层神经网络
您将编写两个辅助函数来初始化模型的参数。第一个函数将用于初始化双层模型的参数。第二个将把这个初始化过程推广到L层。
freesan44
2021/10/12
5170
课后作业(二):如何用一个只有一层隐藏层的神经网络分类Planar data
来源:sandipanweb 编译:Bot 编者按:之前,论智曾在TOP 10:初学者需要掌握的10大机器学习(ML)算法介绍了一些基础算法及其思路,为了与该帖联动,我们特从机器学习热门课程HSE的Introduction to Deep Learning和吴恩达的Neural Networks and Deep Learning中挑选了一些题目,演示Python、TensorFlow和Keras在深度学习中的实战应用。 “课后作业”第二题如何用一个只有一层隐藏层的神经网络分类Planar data,来自吴
企鹅号小编
2018/01/31
1.7K0
课后作业(二):如何用一个只有一层隐藏层的神经网络分类Planar data
推荐阅读
相关推荐
神经网络和深度学习(二) ——从logistic回归谈神经网络基础
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档