前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习500问——Chapter05: 卷积神经网络(CNN)(1)

深度学习500问——Chapter05: 卷积神经网络(CNN)(1)

作者头像
JOYCE_Leo16
发布2024-04-02 09:24:26
3070
发布2024-04-02 09:24:26
举报
文章被收录于专栏:计算机视觉
卷积神经网络是一种用来处理局部和整体相关性的计算网络结构,被应用在图像识别、自然语言处理甚至是语音识别领域,因为图像数据具有显著的局部与整体关系,其在图像识别领域的应用获得了巨大的成功。

5.1 卷积神经网络的组成层

以图像分类任务为例,在表5.1所示卷积神经网络中,一般包含5种类型的网络层次结构:

表5.1 卷积神经网络的组成

CNN层次结构

输出尺寸

作用

输入层

卷积网络的原始输入,可以是原始或预处理后的像素矩阵

卷积层

参数共享、局部连接,利用平移不变性从全局特征图提取局部特征

激活层

将卷积层的输出结果进行非线性映射

池化层

进一步筛选特征,可以有效减少后续网络层次所需的参数量

全连接层

将多维特征展平为2维特征,通常低维度特征对应任务的学习目标(类别或回归值)

W_1\times H_1\times 3
W_1\times H_1\times 3
W_1\times H_1\times 3
W_1\times H_1\times 3

对应原始图像或经过预处理的像素值矩阵,3对应RGB图像的通道;

K
K

表示卷积层中卷积核(滤波器)的个数;

W_2\times H_2
W_2\times H_2

为池化后特征图的尺度,在全局池化中尺度对应

1\times 1
1\times 1

(W_2 \cdot H_2 \cdot K)
(W_2 \cdot H_2 \cdot K)

是将多维特征压缩到1维之后的大小,

C
C

对应的则是图像类别个数。

5.1.1 输入层

输入层(Input Layer)通常是输入卷积神经网络的原始数据或经过预处理的数据,可以是图像识别领域中原始三维的多彩图像,也可以是音频识别领域中经过傅里叶变换的二维波形数据,甚至是自然语言处理中一维表示的句子向量。以图像分类任务为例,输入层输入的图像一般包含RGB三个通道,是一个由长宽分别为

H
H

W
W

组成的3维像素值矩阵

H\times W \times 3
H\times W \times 3

,卷积网络会将输入层的数据传递到一系列卷积、池化等操作进行特征提取和转化,最终由全连接层对特征进行汇总和结果输出。根据计算能力、存储大小和模型结构不同,卷积神经网络每次可以批量处理的图像个数不尽相同,若指定输入层接收到的图像个数为

N
N

,则输入层的输出数据为

N\times H\times W\times 3
N\times H\times W\times 3

5.1.2 卷积层

卷积层(Convolution Layer)通常用作对输入数据进行特征提取,通过卷积核矩阵对原始数据中隐含关联性的一种抽象。卷积操作原理上其实是对两张像素矩阵进行点乘求和的数学操作,其中一个矩阵为输入的数据矩阵,另一个矩阵则为卷积核(滤波器或特征矩阵),求得的结果表示为原始图像中提取的特定局部特征。图5.1表示卷积操作过程中的不同填充策略,上半部分采用零填充,下半部分采用有效卷积(舍弃不能完整运算的边缘部分)。

图5.1 卷积操作示意图

5.1.3 激活层

激活层(Activation Layer)负责对卷积层抽取的特征进行激活,由于卷积操作是由输入矩阵与卷积核矩阵进行相差的线性变化关系,需要激活层对其进行非线性映射。激活层主要由激活函数组成,即在卷积层输出结果的基础上嵌套一个非线性函数,让输出的特征图具有非线性关系。卷积网络中通常采用ReLU来充当激活函数(还包括tanh和sigmoid等),ReLU的函数形式如下公式所示,能够限制小于0的值为0,同时大于等于0的值保持不变。

f(x)=\begin{cases} 0 & \text{if } x<0 \\ x & \text{if } x\ge 0 \end{cases}
f(x)=\begin{cases} 0 & \text{if } x<0 \\ x & \text{if } x\ge 0 \end{cases}
5.1.4 池化层

池化层又被称为降采样层(Downsampling Layer),作用是对感受域内的特征进行筛选,提取区域内最具代表性的特征,能够有效地降低输出特征尺度,进而减少模型所需要的参数量。按操作类型通常分为最大池化(Max Pooling)、平均池化(Average Pooling)和求和池化(Sum Pooling),它们分别提取感受域内最大、平均与总和的特征值作为输出,最常用的是最大池化。

5.1.5 全连接层

全连接层(Full Connected Layer)负责对卷积神经网络学习提取到的特征进行汇总,将多维的特征输入映射为二维的特征输出,高维表示样本批次,低维常常对应任务目标。

5.2 卷积在图像中有什么直观作用

在卷积神经网络中,卷积常用来提取图像的特征,但不同层次的卷积操作提取到的特征类型是不相同的,特征类型粗分如表5.2所示。

表5.2 卷积提取的特征类型

卷积层次

特征类型

浅层卷积

边缘特征

中层卷积

局部特征

深层卷积

全局特征

图像与不同卷积核的卷积可以用来执行边缘检测、锐化和模糊等操作。表5.3显示了应用不同类型的卷积核(滤波器)后的各种卷积图像。

表5.3 一些常见卷积的作用

卷积作用

卷积核

卷积后图像

输出原图

边缘检测(突出边缘差异)

边缘检测(突出中间值)

图像锐化

方块模糊

高斯模糊

\begin{bmatrix} 0 & 0 & 0 \ 0 & 1 & 0 \ 0 & 0 & 0 \end{bmatrix}
\begin{bmatrix} 0 & 0 & 0 \ 0 & 1 & 0 \ 0 & 0 & 0 \end{bmatrix}

5.3 卷积层有哪些基本参数

卷积层中需要用到卷积核(滤波器或特征检测器)与图像特征矩阵进行点乘运算,利用卷积核与对应的特征感受域进行划窗式运算,需要设定卷积核对应的大小、步长、个数以及填充的方式,如表5.4所示。

表5.4 卷积层的基本参数

参数名

作用

常见设置

卷积核大小(Kernel Size)

卷积核的大小定义了卷积的感受野

在过去常设为5,如LeNet-5;现在多设为3,通过堆叠的卷积核来达到更大的感受域

卷积核步长(Stride)

定义了卷积核在卷积过程中的步长

常见设置为1,表示滑窗距离为1,可以覆盖所有相邻位置特征的组合;当设置为更大值时相当于对特征组合降采样

填充方式(Padding)

在卷积核尺寸不能完美匹配输入的图像矩阵时需要进行一定的填充策略

设置为'SAME'表示对不足卷积核大小的边界位置进行某种填充(通常零填充)以保证卷积输出维度与输入维度一致;当设置’VALID’时则对不足卷积尺寸的部分进行舍弃,输出维度就无法保证与输入维度一致

输入通道数(In Channels)

指定卷积操作时卷积核的深度

默认与输入的特征矩阵通道数(深度)一致;在某些压缩模型中会采用通道分离的卷积方式

输出通道数(Out Channels)

指定卷积核的个数

若设置为与通道数一样的大小,可以保持输入输出维度的一致性;若采用比输入通道数更小的值,则可以减少整体网络的参数量

3\times3
3\times3

卷积操作维度变换公式:

O_d =\begin{cases} \left\lceil \frac{(I_d - k_{\text{size}}) + 1}{s}\right\rceil ,& \text{if padding=VALID} \\ \left\lceil \frac{I_d}{s}\right\rceil,& \text{if padding=SAME} \end{cases}
O_d =\begin{cases} \left\lceil \frac{(I_d - k_{\text{size}}) + 1}{s}\right\rceil ,& \text{if padding=VALID} \\ \left\lceil \frac{I_d}{s}\right\rceil,& \text{if padding=SAME} \end{cases}

其中,

I_d
I_d

为输入维度,

O_d
O_d

为输出维度,

k_{size}
k_{size}

为卷积核大小,

s
s

为步长。

5.4 卷积核有什么类型

常见的卷积主要由连续紧密的卷积核对输入的图像特征进行滑窗式点乘求和操作,除此之外还有其他类型的卷积核在不同的任务中会用到,具体分类如表5.5所示。

表5.5 卷积核分类

卷积类别

示意图

作用

标准卷积

最常用的卷积核,连续紧密的矩阵形式可以提取图像区域中的相邻像素之间的关联关系,的卷积核可以获得像素范围的感受野

扩张卷积(带孔卷积或空洞卷积)

引入一个称作扩张率(Dilation Rate)的参数,使同样尺寸的卷积核可以获得更大的感受野,相应的在相同感受野的前提下比普通卷积采用更少的参数。同样是的卷积核尺寸,扩张卷积可以提取范围的区域特征,在实时图像分割领域广泛应用

转置卷积

先对原始特征矩阵进行填充使其维度扩大到适配卷积目标输出维度,然后进行普通的卷积操作的一个过程,其输入到输出的维度变换关系恰好与普通卷积的变换关系相反,但这个变换并不是真正的逆变换操作,通常称为转置卷积(Transpose Convolution)而不是反卷积(Deconvolution)。转置卷积常见于目标检测领域中对小目标的检测核图像分割领域还原输入图像尺度

可分离卷积

标准的卷积操作是同时对原始图像三个方向的卷积运算,假设有个相同尺寸的卷积核,这样的卷积操作需要用到的参数为个;若将长宽与深度方向的卷积操作分离出变为与的两步卷积操作,则同样的卷积核个数,只需要个参数,便可得到同样的输出尺度。可分离卷积(Seperable Convolution)通常应用在模型压缩或一些轻量的卷积神经网络中,如MoblieNet[1]、Xception[2]等

5.5 二维卷积与三维卷积有什么区别

  • 二维卷积

二维卷积操作如图5.3所示,为了更直观的说明,分别展示在单通道和多通道输入中,对单个通道输出的卷积操作。在单通道输入的情况下,若输入卷积核尺寸为

(k_h,k_w,1)
(k_h,k_w,1)

,卷积核在输入图像的空间维度上进行滑窗操作,每次滑窗和

(k_h,k_w)
(k_h,k_w)

窗口内的值进行卷积操作,得到输出图像中的一个值。在多通道输入的情况下,假定输入图像特征通道数为3,卷积核尺寸则为

(k_h,k_w,3)
(k_h,k_w,3)

,每次滑窗与3个通道上的

(k_h,k_w)
(k_h,k_w)

窗口内的所有值进行卷积操作,得到输出图像中的一个值。

  • 三维卷积

D卷积操作如图所示,同样分为单通道和多通道,且假定只使用1个卷积核,即输出图像仅有一个通道。对于单通道输入,与2D卷积不同之处在于,输入图像多了一个深度(depth)维度,卷积核也多了一个

k_d
k_d

维度,因此3D卷积核的尺寸为

(k_h, k_w, k_d)
(k_h, k_w, k_d)

,每次滑窗与

(k_h, k_w, k_d)
(k_h, k_w, k_d)

窗口内的值进行相关操作,得到输出3D图像中的一个值。对于多通道输入,则与2D卷积的操作一样,每次滑窗与3个channels上的

(k_h, k_w, k_d)
(k_h, k_w, k_d)

窗口内的所有值进行相关操作,得到输出3D图像中的一个值。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-04-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 卷积神经网络是一种用来处理局部和整体相关性的计算网络结构,被应用在图像识别、自然语言处理甚至是语音识别领域,因为图像数据具有显著的局部与整体关系,其在图像识别领域的应用获得了巨大的成功。
  • 5.1 卷积神经网络的组成层
    • 5.1.1 输入层
      • 5.1.2 卷积层
        • 5.1.3 激活层
          • 5.1.4 池化层
            • 5.1.5 全连接层
            • 5.2 卷积在图像中有什么直观作用
            • 5.3 卷积层有哪些基本参数
            • 5.4 卷积核有什么类型
            • 5.5 二维卷积与三维卷积有什么区别
            相关产品与服务
            NLP 服务
            NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档