大家好,欢迎来到我们的星球知识卡片专栏,本期给大家分享残差网络模型的一些变种。
作者&编辑 | 言有三
1 残差连接诞生
残差连接的思想起源于中心化,在神经网络系统中,对输入数据等进行中心化转换,即将数据减去均值,被广泛验证有利于加快系统的学习速度。
2 残差网络诞生
何凯明等人在2015年正式提出了ResNet,成为一个重要的基准模型结构。相比于之前的卷积,池化相互堆叠的网络,它简化了highway network中的形式。
3 预激活残差网络
当前卷积神经网络的基本模块通常为卷积+归一化+激活函数(conv+bn+relu)的顺序,对于普通的按照这些模块进行顺序堆叠的网络来说,各个模块的顺序没有什么影响,但是对于残差网络来说却不一样,且看“Identity Mappings in Deep Residual Networks”中对这个问题的研究。
4 更宽的残差网络
Wide ResNet,就是比普通的残差网络更宽(也就是通道数量更大)的结构,那么它与ResNet有什么不同呢。
5 分组并联的残差网络
ResNext是分组卷积和残差卷积的结合,取得了比ResNet更高效的结果,它有何妙处?
6 其他
除了以上基本的变种,残差网络还有非常多的新方向,包括:
(1) 通用泛化版本的残差模型。
(2) 密集连接的残差模型变种。
(3) 多分支合并与融合的残差变种。
(4) 与注意力机制的结合。
(5) 与动态网络的结合。
(6) 其他等等。
以上内容,如果你不想自己学习,可以去我们知识星球的网络结构1000变板块—残差网络板块阅读,纯属自愿,不愿勿喷。
有三AI知识星球
转载文章请后台联系
侵权必究
领取专属 10元无门槛券
私享最新 技术干货