首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ResNet改进版来了!可训练网络超过3000层!相同深度精度更高

ResNet改进版来了!可训练网络超过3000层!相同深度精度更高

作者头像
CV君
发布于 2020-04-20 03:02:11
发布于 2020-04-20 03:02:11
1.4K0
举报
来自阿联酋起源人工智能研究院(IIAI)的研究人员公布了一篇论文Improved Residual Networks for Image and Video Recognition,深入研究了残差网络不能更深的原因,提出了改进版的残差网络(Improved Residual Networks,iResNet),使得训练超深网络时更容易收敛,在多个计算机视觉任务(图像分类,COCO目标检测,视频动作识别)中精度也更高。

作者成功在ImageNet数据集上训练了404层网络的模型,在CIFAR-10和CIFAR-100数据集上训练了3002层网络的模型,而原始的残差网络在达到上述层数的时候已经无法收敛。

该文作者信息:

因残差网络几乎已经成为所有深度卷积网络的标配,“涨点又不涨计算量”的iResNet的出现,或可影响深远。

算法思想

作者主要从三个方向来思考残差网络的改进:

1)促进信息在网络中的流动(Improved flow of information)

2)减少信息损失(Improved projection shortcut)

3)不增加计算量前提下增强残差模块的学习能力(Grouped building block)

1. Improved information flow through the network

作者认为原始的ResNet网络模块中的ReLU在将负信号置0时影响了信息的传播,这种情形在刚开始训练时尤其严重,提出了一种分网络阶段(stage)的三种不同残差构建模块。

以50层的残差网络为例,作者按照网络中特征的空间分辨率大小划分四个阶段(stage),相同分辨率的残差模块被分为同一个stage,

每个stage都包含有下图中start ResBlock、Middle ResBlock、End ResBlock三种残差模块,每个stage有一个start ResBlock 、一个End ResBlock 和数个Middle ResBlock。

减少整体上ReLU对信息流通的影响。

2. Improved projection shortcut

projection shortcut 被用于残差网络特征维度改变的时候,用于将不同特征维度的特征相加之前的处理。原始的残差网络使用stride为2的1x1卷积进行通道的改变。如下图中的(a)。

作者认为1x1卷积丢弃了大量信息,提出先使用3x3 max Pooling再使用1x1卷积的方案,即实现了保留重要信息的降维。

3. Grouped building block

作者认为原始的残差网络中瓶颈模块(bottleneck block)不够好,这种上下粗中间细的结构中,前面的1x1卷积是为了降通道数进而减少计算量,后面的1x1卷积是为了特征对齐,3x3卷积部分被限制了,只有它在“认真的”学习特征模式,将其通道数减少虽然提高了计算速度,却降低了网络表达能力。(算是一种不得已而为之的设计吧)

而新的组卷积(Group conv)技术方案恰好可以解决这个问题。所以作者提出使用组卷积构建模块替换瓶颈模块。

如下图:

ResGroup在不增加计算量的前提下可更好的让3x3卷积发挥作用。

实验结果

使用上述改进方案,可以训练更深层的网络模型,而且相对原始方案,在相同深度时,iResNet的精度也更高。

下图为在ImageNet上训练50、101、152、200层网络时的结果比较:

可见原始残差网络在超过152层时精度开始下降,iResNet精度一直在上升,且比其他方案的精度更好。

下图为训练时的验证集精度曲线,从趋势上看,iResNet具有持续精度提升的表现。

下图为训练404层iResNet网络和152、200层ResNet网络的比较:

随着层数增多,iResNet网络的精度持续提高。

在视频动作识别人中中使用iResNet也明显改进了结果:

在CIFAR-10和CIFAR-100数据集上,不同深度网络的表现:

iResNet的精度随着层数增加到2000层时精度还在提升,达到3002层时精度下降,而ResNet无法在2000层收敛。

在COCO目标检测数据集训练使用了iResNet的SSD算法,同样取得了精度提升。

iResNet与其他知名图像分类算法在ImageNet数据集上的比较:

iResNet 比大部分方法好,但使用了其他技巧的顶尖选手NASNet-A和SENet-154的精度更高,而 iResNet 可以用来构建这些网络。

这么深,有必要吗?

作者提出的算法的确比原始的残差网络收敛性要好,甚至训练了3002层的网络,但这么深真的有必要吗?而且我们也可以看到超深网络带来的精度增益不太明显,但计算量的增加是显然的。

作者在文末特意说明了,我们应当以“发展的眼光”看问题,超深网络在实际应用中目前是不可取的,但随着新技术的出现,这终有一天不会是问题。本文提出的方法可成为训练超深网络的工具,或可启发其他算法的出现。

iResNet 可完美替换ResNet,精度提高计算量不增加,所以在实际应用中也不失为一个好的选择。

论文地址:

https://arxiv.org/abs/2004.04989

代码地址:

https://github.com/iduta/iresnet

END

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-04-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 我爱计算机视觉 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【最强ResNet改进系列】IResNet:涨点不涨计算量,可训练网络超过3000层!
【导读】本篇文章是【最强ResNet改进系列】的第四篇文章,前面我们已经介绍了Res2Net和ResNeSt,具体见:【最强ResNet改进系列】Res2Net:一种新的多尺度网络结构,性能提升显著 和【CV中的注意力机制】史上最强"ResNet"变体--ResNeSt。本文我们将着重讲解IResNet,阿联酋起源人工智能研究院(IIAI)的研究人员,进一步深入研究了残差网络不能更深的原因,提出了改进版的残差网络(Improved Residual Networks for Image and Video Recognition),IResNet可训练网络超过3000层!相同深度但精度更高,与此同时,IResNet还能达到涨点不涨计算量的效果,在多个计算机视觉任务(图像分类,COCO目标检测,视频动作识别)中精度得到了显著提升。
深度学习技术前沿公众号博主
2020/09/01
5K0
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
一、CNN卷积神经网络的经典网络综述 下面图片参照博客:http://blog.csdn.net/cyh_24/article/details/51440344 二、LeNet-5网络 输入尺寸:32
10JQKA
2018/05/09
2.9K0
深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)
深度学习论文随记(四)ResNet 残差网络-2015年Deep Residual Learning for Image Recognition
本文介绍了深度学习网络中残差网络(ResNet)的基本原理、结构和特点。残差网络通过在输入和输出之间加入shortcut connection来解决深层网络训练中的梯度消失问题,从而可以将网络深度提高到152层。实验证明,深度残差网络在图像分类任务中表现优异,其本质优于之前的网络。
TeeyoHuang
2017/12/28
1.7K0
深度学习论文随记(四)ResNet 残差网络-2015年Deep Residual Learning for Image Recognition
深度学习: ResNet (残差) 网络
ResNet (残差) 网络 由He Kaiming、Sun jian等大佬在2015年的论文 Deep Residual Learning for Image Recognition 中提出。
JNingWei
2018/09/27
3.6K0
深度学习: ResNet (残差) 网络
深度学习三人行(第12期)----CNN经典网络之ResNet
接下来我们一起学习下关于CNN中的另一个比较经典的网络ResNet的相关知识,学习的路上我们多多交流,共同进步。本期主要内容如下:
智能算法
2018/12/26
8890
深度学习经典网络解析:7.ResNet
  如果说你对深度学习略有了解,那你一定听过大名鼎鼎的ResNet,正所谓ResNet 一出,谁与争锋?现如今2022年,依旧作为各大CV任务的backbone,比如ResNet-50、ResNet-101等。ResNet是2015年的ImageNet大规模视觉识别竞赛(ImageNet Large Scale Visual Recognition Challenge, ILSVRC)中获得了图像分类和物体识别的冠军,是中国人何恺明、张祥雨、任少卿、孙剑在微软亚洲研究院(AI黄埔军校)的研究成果。
AiCharm
2023/05/15
5.6K0
深度学习经典网络解析:7.ResNet
YOLO V4 Tiny改进版来啦!速度294FPS精度不减YOLO V4 Tiny
为了提高目标检测的实时性,本文提出了一种基于YOLOv4-tiny的快速目标检测方法。它首先使用ResNet-D网络中的两个ResBlock-D模块,而不是Yolov4-tiny中的两个CSPBlock模块,从而降低了计算复杂度。其次,设计了辅助残差网络块,以提取更多的物体特征信息,以减少检测误差。
3D视觉工坊
2020/11/19
7.7K0
YOLO V4 Tiny改进版来啦!速度294FPS精度不减YOLO V4 Tiny
卷积神经网络学习路线(十)| 里程碑式创新的ResNet
开篇的这张图代表ILSVRC历年的Top-5错误率,我会按照以上经典网络出现的时间顺序对他们进行介绍,同时穿插一些其他的经典CNN网络。
BBuf
2020/02/12
1.1K0
卷积神经网络学习路线(十)| 里程碑式创新的ResNet
【最强ResNet改进系列】Res2Net:一种新的多尺度网络结构,性能提升显著
【导读】2020年,在各大CV顶会上又出现了许多基于ResNet改进的工作,比如:Res2Net,ResNeSt,IResNet,SCNet等等。为了更好的了解ResNet整个体系脉络的发展,我们开设了一个最强ResNet改进系列专题,主要为大家介绍2020年最新发表在顶会顶刊上基于ResNet改进的论文,这些论文的创新点很值得参考借鉴!本文是【最强ResNet改进系列】第一篇文章,本文我们将着重讲解Res2Net,该论文已被TPAMI2020录用,另外ResNeSt的论文解读见:【CV中的注意力机制】史上最强"ResNet"变体--ResNeSt,下一篇我们将直接来讲解IResNet
深度学习技术前沿公众号博主
2020/08/11
10.8K0
ResNet, AlexNet, VGG, Inception: 理解各种各样的CNN架构
作者:叶 虎 编辑:王抒伟 本文翻译自ResNet, AlexNet, VGG, Inception: Understanding various architectures of Convolutional Networks http://cv-tricks.com/cnn/understand-resnet-alexnet-vgg-inception/ 原作者保留版权。 卷积神经网络(CNN)在视觉识别任务上的表现令人称奇。好的CNN网络是带有上百万参数和许多隐含层的“庞然怪物”。事实上,一个
机器学习算法工程师
2018/03/06
2.7K0
ResNet, AlexNet, VGG, Inception: 理解各种各样的CNN架构
深入理解ResNet原理解析及代码实现
梯度消失和梯度爆炸的问题阻止了刚开始的收敛,这一问题通过初始化归一化和中间层归一化得到了解决。解决了收敛的问题后又出现了退化的现象:随着层数加深,准确率升高然后急剧下降。且这种退化不是由过拟合造成,且向网络中添加适当多层导致了更大的训练误差。随着网络深度的增加,模型精度并不总是提升,并且这个问题并不是由过拟合(overfitting)造成的,因为网络加深后不仅测试误差变高了,它的训练误差竟然也变高了。作者提出,这可能是因为更深的网络会伴随梯度消失/爆炸问题,从而阻碍网络的收敛。这种加深网络深度但网络性能却下降的现象被称为退化问题。也就是说,随着深度的增加出现了明显的退化,网络的训练误差和测试误差均出现了明显的增长,ResNet就是为了解决这种退化问题而诞生的。
狼啸风云
2020/04/01
5.7K0
深入理解ResNet原理解析及代码实现
ResNet详细解读
这篇文章是Deep Residual Learning for Image Recognition 的翻译,精简部分内容的同时补充了相关的概念,如有错误,敬请指正。
全栈程序员站长
2022/09/01
2.1K0
ResNet详细解读
十分钟一起学会ResNet残差网络
【磐创AI导读】:本文主要带大家一起剖析ResNet网络,查漏补缺。想要学习更多的机器学习、深度学习知识,欢迎大家点击上方蓝字关注我们的公众号:磐创AI。
磐创AI
2018/09/20
5210
十分钟一起学会ResNet残差网络
[深度学习] AlexNet,GoogLeNet,VGG,ResNet简化版
总结了一下这几个网络的比较重要的点,像这些经典的网络,面试的时候,估计会经常问到,怎么用自己的话说出来?不知道大家想过没有。 今天有空就总结了一下,尽量简单和通俗,希望对大家有帮助。同时欢迎大家补充!谢谢! AlexNet AlexNet共有9层,包括输入层,5个卷积层和3个全连接层,中间使用了3次最大值池化。卷积核的大小由11x11到5x5再到3x3, 最后输出层是1000维的SoftMax多分类。第2,4,5和三个全连接层神经元的偏置初始化为常数1,其它层初始化为0。为了避免过拟合,AlexNet使用数
用户1622570
2018/04/12
1.8K0
[深度学习] AlexNet,GoogLeNet,VGG,ResNet简化版
PyTorch +ResNet34实现 图像分类
ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域里得到广泛的应用。它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思,下面是这个resnet的网络结构:
大数据技术与机器学习
2022/03/29
5.8K0
PyTorch +ResNet34实现 图像分类
深度残差神经网络ResNet 学习笔记
ResNet——MSRA何凯明团队的Residual Networks,在2015年ImageNet上大放异彩,在ImageNet的classification、detection、localization以及COCO的detection和segmentation上均斩获了第一名的成绩,而且Deep Residual Learning for Image Recognition也获得了CVPR2016的best paper,实在是实至名归。
Natalia_ljq
2020/06/03
9270
深度残差神经网络ResNet 学习笔记
resnet讲解_resnet50网络结构详解
ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域里得到广泛的应用。它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思,下面是这个resnet的网络结构:
全栈程序员站长
2022/11/08
6.3K0
resnet讲解_resnet50网络结构详解
PyTorch实战:常用卷积神经网络搭建结构速览
PyTorch可以说是三大主流框架中最适合初学者学习的了,相较于其他主流框架,PyTorch的简单易用性使其成为初学者们的首选。这样我想要强调的一点是,框架可以类比为编程语言,仅为我们实现项目效果的工具,也就是我们造车使用的轮子,我们重点需要的是理解如何使用Torch去实现功能而不要过度在意轮子是要怎么做出来的,那样会牵扯我们太多学习时间。以后就出一系列专门细解深度学习框架的文章,但是那是较后期我们对深度学习的理论知识和实践操作都比较熟悉才好开始学习,现阶段我们最需要的是学会如何使用这些工具。
fanstuck
2024/12/29
3990
PyTorch实战:常用卷积神经网络搭建结构速览
你必须要知道CNN模型:ResNet
作者:叶 虎 编辑:张 欢 PART 01 ResNet简介 引言 深度残差网络(Deep residual network, ResNet)的提出是CNN图像史上的一件里程碑事件,让我们先看一下
机器学习算法工程师
2018/03/06
2.1K0
你必须要知道CNN模型:ResNet
Pelee:移动端实时检测骨干网络
在ImageNet数据集上,PeleeNet只有MobileNet模型的66%,并且比MobileNet精度更高。PeleeNet作为backbone实现SSD能够在VOC2007数据集上达到76.4%的mAP。文章总体上参考DenseNet的设计思路,提出了三个核心模块进行改进,有一定参考价值。
BBuf
2020/05/20
1.2K0
推荐阅读
相关推荐
【最强ResNet改进系列】IResNet:涨点不涨计算量,可训练网络超过3000层!
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档