Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >深度学习笔记总结(1)

深度学习笔记总结(1)

作者头像
致Great
发布于 2019-04-18 12:13:22
发布于 2019-04-18 12:13:22
9820
举报
文章被收录于专栏:自然语言处理自然语言处理

针对深度学习基础部分,有必要恶补一些吴恩达的深度学习课程,其实晚上有很多总结和笔记,本系列文章是针对黄海广大佬整理的《深度学习课程笔记(V5.47)》的总结和自己的理解,以便加深印象和复习。

1 第一周 深度学习引言

1.1 深度学习为什么会兴起

  • 数据规模 数据规模越来越大,远超过传统机器学习算法的学习能力。
  • 计算量
  • 算法的创新 发展和提出了多样的神经网络,具有强大的计算机能力

image

  • 计算机硬件的发展 比如GPU、TPU的出现

2 第二周 神经网络的编程基础

2.1 逻辑回归

下面是逻辑回归的输出函数:

2.2 损失函数

损失函数又叫做误差函数,用来衡量算法的运行情况,Loss function:?(? , ?).通过这个?称为的损失函数,来衡量预测输出值和实际值有多接近。 逻辑回归用的损失函数为:

为什么用这个函数作为损失函数?

2.3 梯度下降算法

梯度下降算法就是为了通过 最小化代价函数(成本函数)J(w,b)来更新参数w和b,说白了就是原先的w和b会使函数更大,需要更新一下,使损失变小。

逻辑回归的代价函数(成本函数)?(?, ?)是含有两个参数的:

3 第三周 浅层神经网络

3.1 激活函数

  • sigmoid

sigmoid激活函数曲线像一个字母"S",我们选择它作为激活函数的主要原因是sigmoid的值域为(0,1).因此,它特别适合用于我们必须将概率预测为输出的模型。由于任何事件发生的概率仅存在于0和1的范围之间,因此sigmoid是不错的选择。

softmax函数是一种更通用的逻辑激活函数,用于多类分类。

  • tanh

tanh看起来和sigmoid差不多。tanh 函数是 sigmoid 的向下平移和伸缩后的结果。对它进行了变形后,穿过了 (0,0)点,并且值域介于+1 和-1 之间,函数图像也是S形。

但是tanh效果总是优于 sigmoid 函数。因为函数值域在-1 和+1 的激活函数,其均值是更接近零均值的。在训练一个算法模型时,如果使用 tanh 函数代替 sigmoid 函数中心化数据,使得数据的平均值更接近 0 而不是 0.5.

tanh函数主要用于两类之间的分类任务。

重点:sigmoid 函数和 tanh 函数两者共同的缺点是,在?特别大或者特别小的情况下,导数的 梯度或者函数的斜率会变得特别小,最后就会接近于 0,导致降低梯度下降的速度。

  • relu ReLU是目前使用最多的激活函数,它几乎用于所有卷积神经网络或深度学习。 值域是[0,无穷]
  • leaky relu Leaky Relu。 当x是负值时,这个函数的值不是等于 0,而是轻微的倾斜,如图。 这个函数通常比 Relu 激活函数效果要好,尽管在实际中 Leaky ReLu 使用的并不多
  • relu和leaky relu的优点: 第一,在?的区间变动很大的情况下,激活函数的导数或者激活函数的斜率都会远大于0,在程序实现就是一个 if-else 语句,而 sigmoid 函数需要进行浮点四则运算,在实践中, 使用 ReLu 激活函数神经网络通常会比使用 sigmoid 或者 tanh 激活函数学习的更快。第二,sigmoid 和 tanh 函数的导数在正负饱和区的梯度都会接近于 0,这会造成梯度弥散,而 Relu 和 Leaky ReLu 函数大于 0 部分都为常熟,不会产生梯度弥散现象。(同时应该注 意到的是,Relu 进入负半区的时候,梯度为 0,神经元此时不会训练,产生所谓的稀疏性, 而 Leaky ReLu 不会有这问题)
  • 激活函数选择的经验:1 . 如果输出是 0、1 值(二分类问题),则输出层选择 sigmoid 函数,然后其它的所 有单 元都选择 Relu 函数。2. 这是很多激活函数的默认选择,如果在隐藏层上不确定使用哪个激活函数,那么通常会 使用 Relu 激活函数。有时,也会使用 tanh 激活函数,但 Relu 的一个优点是:当?是负值的 时候,导数等于 0。
  • 常见激活函数比较
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019.04.12 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
从零开始深度学习(十):激活函数
文章首发于本人CSDN账号:https://blog.csdn.net/tefuirnever
我是管小亮
2020/04/20
1K0
前馈神经网络(Feed-Forward Neural Network)
前馈神经网络(Feed-Forward Neural Network,简称FNN)是一种基本且广泛应用的人工神经网络结构。以下是关于前馈神经网络的详细解释:
jack.yang
2025/04/05
2320
前馈神经网络(Feed-Forward Neural Network)
01.神经网络和深度学习 W3.浅层神经网络
每个神经网络单元的工作包括两部分:计算 z,然后根据激活函数(sigmoid)计算 σ(z)
Michael阿明
2021/02/19
3350
Deeplearning.ai 课程笔记第一部分:神经网络与深度学习
神经网络就是由若干神经元组合而成的网络结构,其包含输入层、隐藏层和输出层。而含有多层隐藏层的神经网络即为深度神经网络。下图给出了一个深度神经网络的示意图。
口仆
2020/08/17
9100
深度学习知识点盘点(一)
最近博主在学习深度学习,选择的是看吴恩达的DeepLearning课程,因为Coursera上完成课程要申请助学金不然要钱(白嫖警告),并且要完成作业。博主没那么多时间也没那么多钱,所以选择了b站上刷视频。刷视频的时候就边看边作总结,本来找了一些比较著名的笔记,一看发现还是字幕比较多,不利于复习,所以对部分常用的深度学习概念做了一些知识点盘点,然后又决定发到博客上,所以我尽量以看得懂的形式记录,希望在大家某天想找某个知识点的时候可以通过这篇博客得到帮助。
vincentbbli
2021/08/18
5900
深度学习500问——Chapter13:优化算法(1)
目前大部分的深度学习模型仍然需要海量的数据支持。例如ImageNet数据就拥有1400多万的图片,而现实生产环境中,数据集通常较小,只有几万甚至几百个样本。这时候,如何在这种情况下应用深度学习呢?
JOYCE_Leo16
2024/09/08
1470
深度学习500问——Chapter13:优化算法(1)
深度学习4大激活函数
如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出实际上都是上层输入的线性函数。
皮大大
2023/08/25
4200
深度学习4大激活函数
深度学习教程 | 浅层神经网络
本系列为吴恩达老师《深度学习专项课程(Deep Learning Specialization)》学习与总结整理所得,对应的课程视频可以在这里查看。
ShowMeAI
2022/04/14
1.1K0
深度学习教程 | 浅层神经网络
深度学习中常用激活函数的详细总结
本文总结了几个在深度学习中比较常用的激活函数:Sigmoid、ReLU、LeakyReLU以及Tanh,从激活函数的表达式、导数推导以及简单的编程实现来说明。
触摸壹缕阳光
2020/02/17
2.3K0
深度学习中常用激活函数的详细总结
吴恩达《神经网络与深度学习》精炼笔记(4)-- 浅层神经网络
上节课我们主要介绍了向量化、矩阵计算的方法和python编程的相关技巧。并以逻辑回归为例,将其算法流程包括梯度下降转换为向量化的形式,从而大大提高了程序运算速度。本节课我们将从浅层神经网络入手,开始真正的神经网络模型的学习。
红色石头
2022/01/12
3970
吴恩达《神经网络与深度学习》精炼笔记(4)-- 浅层神经网络
DeepLearning.ai学习笔记(一)神经网络和深度学习--Week3浅层神经网络
介绍 DeepLearning课程总共五大章节,该系列笔记将按照课程安排进行记录。 另外第一章的前两周的课程在之前的Andrew Ng机器学习课程笔记(博客园)&Andrew Ng机器学习课程笔记
marsggbo
2018/01/23
5990
DeepLearning.ai学习笔记(一)神经网络和深度学习--Week3浅层神经网络
深度学习中常见激活函数的原理和特点
前面一些分享文章提到了激活函数,这篇文章将介绍各种激活函数,下一篇将分享我和同事在业务中对激活函数的一些思考与应用。
自学气象人
2023/06/20
1.3K0
深度学习中常见激活函数的原理和特点
神经网络和深度学习——吴恩达深度学习课程笔记(一)
单个神经元是一个非线性函数,它接收多个输入x,将它们线性组合后再用一个非线性激活函数作用,产生输出值 y。
lyhue1991
2020/07/20
5990
激活函数 | 深度学习领域最常用的10个激活函数,详解数学原理及优缺点
激活函数是神经网络模型重要的组成部分,今天分享从激活函数的数学原理出发,详解了十种激活函数的优缺点。
计算机视觉研究院
2021/03/13
34K0
【深度学习 | 梯度那些事】 梯度爆炸或消失导致的模型收敛困难?挑战与解决方案一览, 确定不来看看?
🙋‍♂️声明:本人目前大学就读于大二,研究兴趣方向人工智能&硬件(虽然硬件还没开始玩,但一直很感兴趣!希望大佬带带)
计算机魔术师
2023/09/25
1.9K0
干货 | 深入理解深度学习中的激活函数
生物神经网络是人工神经网络的起源。然而,人工神经网络(ANNs)的工作机制与大脑的工作机制并不是十分的相似。不过在我们了解为什么把激活函数应用在人工神经网络中之前,了解一下激活函数与生物神经网络的关联依然是十分有用的。
用户1150922
2019/05/27
7040
机器学习 学习笔记(20)深度前馈网络
深度前馈网络(deep feedforward network),也叫做前馈神经网络(feedforward neural network)或者多层感知机(multilayer perceptron,MLP),是典型的深度学习模型。前馈网络的目标是近似某个函数
2018/09/04
1.9K0
机器学习 学习笔记(20)深度前馈网络
吴恩达深度学习笔记 3.1~3.11 浅层神经网络
神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多了一层,多出的中间一层叫隐藏层,那么,神经网络的计算就相当于多进行一次逻辑回归的计算
Dar_Alpha
2018/09/03
8880
吴恩达深度学习笔记 3.1~3.11 浅层神经网络
Coursera吴恩达《神经网络与深度学习》课程笔记(4)-- 浅层神经网络
上节课我们主要介绍了向量化、矩阵计算的方法和python编程的相关技巧。并以逻辑回归为例,将其算法流程包括梯度下降转换为向量化的形式,从而大大提高了程序运算速度。本节课我们将从浅层神经网络入手,开始真
红色石头
2017/12/28
1.2K0
Coursera吴恩达《神经网络与深度学习》课程笔记(4)-- 浅层神经网络
深度学习之基础知识详解
过拟合(overfitting):学习能力过强,以至于把训练样本所包含的不太一般的特性都学到了。
机器学习AI算法工程
2019/10/28
6990
深度学习之基础知识详解
推荐阅读
相关推荐
从零开始深度学习(十):激活函数
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档