前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习: 感受野 (receptive field)

深度学习: 感受野 (receptive field)

作者头像
JNingWei
发布2018-09-27 15:37:40
2.1K0
发布2018-09-27 15:37:40
举报
文章被收录于专栏:JNing的专栏

Introduction

感受野:卷积神经网络每一层输出的特征图 (feature map) 上的像素点在原始图像上映射的区域大小。

Size

多层叠加 的 小卷积核 相比于 大卷积核 的:

  • 优势:
    1. 可取得与大卷积核同等规模的感受野;
    2. 加深了网络深度 —> 增强了网络容量和网络复杂度;
    3. 减少了模型参数的个数。
  • 劣势:
    1. 整个网络的总计算量增加(虽然对单个卷积层而言计算量不变,但卷积层数增加了,因此计算总量也就上去了);
    2. 增加了“梯度弥散”的风险(因为层数增加了)。

Compute

感受野的计算 主要与 卷积层池化层窗口大小 (size)移动步长 (stride) 以及 填充 (padding) 有关。

例如,假设在 stride=1,padding=0 的相同前提下,且每层卷积的输出channel都为1:

卷积核方案

三个 3×3×1 的小卷积核叠加

一个 7×7×1 的大卷积核

感受野大小

7×7×1

7×7×1

层数

3

1

参数量

3×(3×3×1)=27

1×(7×7×1)=49

浮点数计算次数

[(3×3×1)×(5×5×1)+(3×3×1)×(3×3×1)+(3×3×1)×(1×1×1)]×2=630

[(7×7×1)×(1×1×1)]×2=98

Summary

  • 在相同感受野的情况下,“叠加小卷积核”的方案节省了参数开销,却增大了浮点数计算次数。
  • 另外,由于增加了网络层数,也会随之带来网络加深的一系列利弊 (模型容量↑ / 模型复杂度↑ / 梯度风险↑ / 收敛难度↑)。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018年01月31日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
  • Size
  • Compute
  • Summary
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档