首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Resnet网络结构图和对应参数表的简单理解

Resnet网络结构图和对应参数表的简单理解

作者头像
卡伊德
发布于 2022-09-13 07:09:00
发布于 2022-09-13 07:09:00
3.6K0
举报
文章被收录于专栏:caidblogcaidblog

Resnet

Resnet即就是残差网络,本文主要是对于resnet给出的网络结构图进行简单解释。

网络结构图

以上就是34层网络的网络结构图。

以上是18层、34层、50层、101层以及152层网络所对应的残差块。

我刚开始在网上看到这两张图片的时候,感觉一点都不懂,后面学了一下,稍微懂了,所以写下这篇博文做个记录。

个人理解

比如说第一张34层的网络结构图,它对应的是第二张图片的第四列。

在第四列中,每一行的大概解释如下:

第二行表示,从18层到152层的conv1都使用了64个7*7的卷积核,

第三行表示的是从18层到152层的conv2_x第一步也都使用了3*3的卷积核进行池化。

第四行表示con2_x的第二步执行了 3个残差块,每个残差块包含两步操作:使用64个3*3的卷积核,进行卷积,执行两次。而最终的结果shape为[56*56*64]

同样的,第五行(conv3_x)表示的是4个残差块,每个残差快包含两次相同的卷积:使用128个大小为3*3的卷积核进行卷积。

第六行、第七行类似前面。

第八行为均值池化,从而得到一个1000d的结果,在经过全连接层以及softmax激活函数得到 1*1的输出。

虚线和直线的区别

在第一张图中有些是虚线,而有些是直线,区别大概有一下几点:

简单来说就是,一个残差块对应的输入shape和输出shape相同,则用实现,否则用虚线。如果输入和输出的shape相同,则在计算的过程中可以直接将输入数据和输出结果相加,我们截取其中一个残差块:

在此图中,输入数据的shape为:[56 * 56* 64],而输出数据为:[28*28*64]

在此图中,输入数据的shape为:[56 * 56* 64],而输出数据为:[28*28*128],因此,需要将虚线的输出结果输入到前面实现的残差块中,才能最终得到和输入数据相同的shape,从而将输入和输出相加。

在上图中,主分支的stride为2,即可让输入的长宽为[56 * 56* 64]变为[28*28*128],而捷径分支(右侧)的stride为2,也可让输入的长宽为[56 * 56* 64]变为[28*28*128],从而保证主分支执行完两次卷积后再与捷径分支进行相加操作。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021/03/30 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
googlenet网络结构图_代码架构
在上一篇文章中介绍了VGG网络结构,VGG在2014年ImageNet 中获得了定位任务第1名和分类任务第2名的好成绩,而同年分类任务的第一名则是GoogleNet 。GoogleNet是Google研发的深度网络结构,之所以叫“GoogLeNet”,是为了向“LeNet”致敬,有兴趣的同学可以看下原文Going Deeper with Convolutions。
全栈程序员站长
2022/09/21
2.3K0
googlenet网络结构图_代码架构
残差网络ResNet网络原理及实现
简书ID:石晓文的学习日记(https://www.jianshu.com/u/c5df9e229a67)
用户1332428
2023/03/28
6480
残差网络ResNet网络原理及实现
ResNet详解:网络结构解读与PyTorch实现教程
深度残差网络(Deep Residual Networks,简称ResNet)自从2015年首次提出以来,就在深度学习领域产生了深远影响。通过一种创新的“残差学习”机制,ResNet成功地训练了比以往模型更深的神经网络,从而显著提高了多个任务的性能。深度残差网络通过引入残差学习和特殊的网络结构,解决了传统深度神经网络中的梯度消失问题,并实现了高效、可扩展的深层模型。
TechLead
2023/10/21
6.3K0
ResNet详解:网络结构解读与PyTorch实现教程
残差网络ResNet网络原理及实现
论文地址:https://arxiv.org/pdf/1512.03385.pdf
石晓文
2018/11/30
2.6K0
残差网络ResNet网络原理及实现
ResNet 模型原理
3.ResNet引入了BatchNorm层,使得ResNet能够训练更加深的网络结构
zhangjiqun
2024/12/14
2400
ResNet 模型原理
明月深度学习实践004:ResNet网络结构学习
ResNet可谓大名鼎鼎了,一直遵循拿来主义,没有好好去学习它,当然,作为一个提出来快五年的网络结构,已经有太多人写过它了,不好下笔。
明月AI
2021/10/28
1.2K0
明月深度学习实践004:ResNet网络结构学习
你必须要知道CNN模型:ResNet
作者:叶 虎 编辑:张 欢 PART 01 ResNet简介 引言 深度残差网络(Deep residual network, ResNet)的提出是CNN图像史上的一件里程碑事件,让我们先看一下
机器学习算法工程师
2018/03/06
2.1K0
你必须要知道CNN模型:ResNet
经典CNN网络:Resnet18网络结构输入和输出[通俗易懂]
Q1:每当看到一个新的网络,总会思考,这个网络提出来有什么意义,解决了什么问题?
全栈程序员站长
2022/09/01
9.2K0
经典CNN网络:Resnet18网络结构输入和输出[通俗易懂]
cs231n - CNN Architectures
这节课介绍了几个常见的卷积神经网络的架构,从结构上学习神经网络的构成,包括 AlexNet,LeNet,VGG,GoogLeNet,ResNet,这些网络都是在之前的 ImageNet 挑战中获得过第一名网络结构,值得我们好好学习一下。现在很多的神经网络框架里都集成了这些框架,但是建议还是手动实现一下哈
棒棒鸡不棒
2022/09/01
2610
cs231n - CNN Architectures
【长文详解】卷积神经网络常见架构AlexNet、ZFNet、VGGNet、GoogleNet和ResNet模型的理论与实践
目前的常见的卷积网络结构有AlexNet、ZF Net、VGGNet、Inception、ResNet等等,接下来我们对这些架构一一详解。
zenRRan
2018/10/09
2.2K0
【长文详解】卷积神经网络常见架构AlexNet、ZFNet、VGGNet、GoogleNet和ResNet模型的理论与实践
基于pytorch卷积神经网络的人脸面部表情识别系统研究采用CNN+RestNet+VGG三种模型源码+模型+答辩材料
在日常工作和生活中,人们情感的表达方式主要有:语言、声音、肢体行为(如手势)、以及面部表情等。在这些行为方式中,面部表情所携带的表达人类内心情感活动的信息最为丰富,据研究表明,人类的面部表情所携带的内心活动的信息在所有的上述的形式中比例最高,大约占比55%。
云未归来
2025/07/22
780
基于pytorch卷积神经网络的人脸面部表情识别系统研究采用CNN+RestNet+VGG三种模型源码+模型+答辩材料
resnet讲解_resnet50网络结构详解
ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域里得到广泛的应用。它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思,下面是这个resnet的网络结构:
全栈程序员站长
2022/11/08
6.3K0
resnet讲解_resnet50网络结构详解
Resnet 18网络模型[通俗易懂]
让我们聚焦于神经网络局部:如图左侧所示,假设我们的原始输入为x,而希望学出的理想映射为f(x)(作为上方激活函数的输入)。左图虚线框中的部分需要直接拟合出该映射f(x),而右图虚线框中的部分则需要拟合出残差映射f(x)−x。 残差映射在现实中往往更容易优化。 以本节开头提到的恒等映射作为我们希望学出的理想映射f(x),我们只需将右图虚线框内上方的加权运算(如仿射)的权重和偏置参数设成0,那么f(x)即为恒等映射。 实际中,当理想映射f(x)极接近于恒等映射时,残差映射也易于捕捉恒等映射的细微波动。右图是ResNet的基础架构–残差块(residual block)。 在残差块中,输入可通过跨层数据线路更快地向前传播
全栈程序员站长
2022/09/01
9.3K0
Resnet 18网络模型[通俗易懂]
深度学习与CV教程(9) | 典型CNN架构 (Alexnet,VGG,Googlenet,Restnet等)
本系列为 斯坦福CS231n 《深度学习与计算机视觉(Deep Learning for Computer Vision)》的全套学习笔记,对应的课程视频可以在 这里 查看。更多资料获取方式见文末。
ShowMeAI
2022/06/03
8230
深度学习与CV教程(9) | 典型CNN架构 (Alexnet,VGG,Googlenet,Restnet等)
深度学习基础知识(五)--网络结构小结
早期的卷积神经网络结构比较简单,随着深度学习的发展卷积神经网络的结构也在不断优化,很多优秀的结构不断被提出,本文主要对一些常用的优秀网络结构进行总结。
languageX
2022/07/08
1.6K0
【深度学习】残差网络理解
残差网络 ResNet 是在2015年开始火起来的,之前只是在书上看过它的大名,但是没有深入学习过。最近在参加kaggle竞赛,查资料的过程了解到 ResNet 在图像分类、目标检测等问题中作为 backbone 的效果很不错,所以打算深入学习下。
嵌入式视觉
2022/09/05
2.6K0
【深度学习】残差网络理解
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
一、CNN卷积神经网络的经典网络综述 下面图片参照博客:http://blog.csdn.net/cyh_24/article/details/51440344 二、LeNet-5网络 输入尺寸:32
10JQKA
2018/05/09
2.9K0
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
精选目标检测3——yolo1、yolo2、yolo3和SSD的网络结构汇总对比
……最近在学习yolo1、yolo2和yolo3,事实上它们和SSD网络有一定的相似性,我准备汇总一下,看看有什么差别。
全栈程序员站长
2022/07/02
1K0
精选目标检测3——yolo1、yolo2、yolo3和SSD的网络结构汇总对比
pytorch学习笔记(十):卷积神经网络CNN(进阶篇)
如图是经典网络GoogleNet的网络结构图,如果将每层均用上篇内容的表示方法,则代码过于冗长。观察到网络结构中有很多重复部分,因此可以使用Class对重复部分进行封装。
zstar
2022/06/14
2620
pytorch学习笔记(十):卷积神经网络CNN(进阶篇)
深入理解ResNet原理解析及代码实现
梯度消失和梯度爆炸的问题阻止了刚开始的收敛,这一问题通过初始化归一化和中间层归一化得到了解决。解决了收敛的问题后又出现了退化的现象:随着层数加深,准确率升高然后急剧下降。且这种退化不是由过拟合造成,且向网络中添加适当多层导致了更大的训练误差。随着网络深度的增加,模型精度并不总是提升,并且这个问题并不是由过拟合(overfitting)造成的,因为网络加深后不仅测试误差变高了,它的训练误差竟然也变高了。作者提出,这可能是因为更深的网络会伴随梯度消失/爆炸问题,从而阻碍网络的收敛。这种加深网络深度但网络性能却下降的现象被称为退化问题。也就是说,随着深度的增加出现了明显的退化,网络的训练误差和测试误差均出现了明显的增长,ResNet就是为了解决这种退化问题而诞生的。
狼啸风云
2020/04/01
5.7K0
深入理解ResNet原理解析及代码实现
推荐阅读
相关推荐
googlenet网络结构图_代码架构
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档