前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >深度学习实战篇之 ( 十八) -- Pytorch之SeNet

深度学习实战篇之 ( 十八) -- Pytorch之SeNet

作者头像
用户5410712
发布于 2022-06-01 12:18:26
发布于 2022-06-01 12:18:26
8980
举报
文章被收录于专栏:居士说AI居士说AI

科普知识

注意力机制(Attention Mechanism)源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。上述机制通常被称为注意力机制。人类视网膜不同的部位具有不同程度的信息处理能力,即敏锐度(Acuity),只有视网膜中央凹部位具有最强的敏锐度。为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它。例如,人们在阅读时,通常只有少量要被读取的词会被关注和处理。综上,注意力机制主要有两个方面:决定需要关注输入的哪部分;分配有限的信息处理资源给重要的部分。

前言

上期理论篇文章我们学习了SeNet网络,其核心思想在于对输入的特征在通道维度上进行自适应增强(权重适配),同时由于其架构简单可以独立于任何架构之外,因此可以很容易的嵌入到大多数卷积神经网络实现特征增强的目的。

数据集介绍

1

本次实验数据集我们依旧采用之前的RAFDB人脸表情数据集(7类:愉快,悲伤,厌恶,平和,惊讶,恐惧,愤怒),数据集分布及其样本展示如下:

网络架构

2

SeNet架构较为简单,我们主要看与ResNet网络融合的案例,从层级上来分析,分别是:全局平均池化-->全连接层-->Relu激活函数-->全连接层-->Sigmoid压缩范围到0-1之间。

维度分析:输入维度:[B,C,H,W]

1.全局平均池化层:输入:[B,C,H,W],输出:[B,C]。备注:全局平均池化层的作用在于将特征图[H,w]转变成-->[1,1]的维度。

2.全连接层:输入:[B,C],输出:[B,C/r]

3.ReLU层: 输入:[B,C/r],输出:[B,C/r]

4.全连接层:输入:[B,C/r],输出:[B,C]

5.Sigmoid: 输入:[B,C],输出:[B,C]

代码实践

3

本次代码采用Pytorch框架(version 1.7),基础骨干网络采用ResNet18架构,我们对该网络中的四个残差块分别设计SeNet模块。由于之前对TensorFlow框架已经学习过一点时间,转换到另一框架对大家来说应该不是什么难题,本着一法通万法的原则,之后的实战篇文章我们都采用Pytorch实现,而且不再对其基础网络设计方法,数据集处理方法等进行分享学习了,直接上代码,让大家体验快感。

1.ResNet18四层残差块:

2. SeNet块设计:

3. 嵌入到四个残差块中:

训练情况

4

这里截取训练过程中的一些结果展示,本次训练显卡为:1080Ti(显存11G)相对较小,批数量bachsize为8。

代码托管至码云:https://gitee.com/fengyuxiexie/pytorch_-se-net

The End

本期分享就到这里啦,实战篇我们重在分享代码实现细节,大家如果在学习过程中有疑问或者建议,可随时后台私聊小编哦。

编辑:玥怡居士 | 审核:小圈圈居士

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 IT进阶之旅 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Attention注意力机制及其在计算机视觉中的应用
Attention机制源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性的关注所有信息的一部分,同时忽略其他可见的信息。实现这一能力的原因是人类视网膜的不同部位,具有不一样的信息处理能力,即不同部分的敏锐度不同,人类视网膜中央凹部位具有最高的信息敏锐度。为了合理的利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后重点关注它。例如人们在使用电脑屏幕看电影的时候,会重点关注和处理屏幕范围内的视觉,而电脑屏幕外的视觉如键盘、电脑背景等等都会被忽略。
狼啸风云
2020/05/25
2.5K0
Attention注意力机制及其在计算机视觉中的应用
深度学习理论篇之 ( 十八) -- DenseNet之囊括万千
国际人工智能联合会议(International Joint Conference on Artificial Intelligence, 简称为IJCAI)是人工智能领域中最主要的学术会议之一,原为单数年召开,自2016年起改为每年召开。有时还会和其他地区性的人工智能会议(‘xxCAI’)一起召开,常为该年举办地的所属的地区性质会议,如PRICAI(环太平洋人工智能会议),ECAI(欧洲人工智能会议)等。
用户5410712
2022/06/01
4320
深度学习理论篇之 ( 十八) -- DenseNet之囊括万千
深度学习理论篇之 ( 十八) -- 注意力机制之SENet
ILSVRC(ImageNet Large Scale Visual Recognition Challenge)是机器视觉领域最受追捧也是最具权威的学术竞赛之一,代表了图像领域的最高水平。 ImageNet数据集是ILSVRC竞赛使用的是数据集,由斯坦福大学李飞飞教授主导,包含了超过1400万张全尺寸的有标记图片。ILSVRC比赛会每年从ImageNet数据集中抽出部分样本,以2012年为例,比赛的训练集包含1281167张图片,验证集包含50000张图片,测试集为100000张图片。
用户5410712
2022/06/01
8760
深度学习理论篇之 ( 十八) -- 注意力机制之SENet
深度学习实战篇之 ( 十三) -- TensorFlow之AlexNet
在实践中,由于数据集不够大,很少有人从头开始训练网络。常见的做法是使用预训练的网络(例如在ImageNet上训练的分类1000类的网络)来重新fine-tuning(也叫微调),或者当做特征提取器。
用户5410712
2022/06/01
3181
深度学习实战篇之 ( 十三) -- TensorFlow之AlexNet
深度学习之基础网络演进、分类与定位的权衡|牛喀技研
深度学习,目标检测,图像,智能驾驶 编译:牛喀网-钱伟 前言 本篇关注基础网络架构的演进和处理分类、定位这一矛盾问题上的进展。 基础网络结构的演进 基础网络(Backbone network)作为特征提取器,对检测模型的性能有着至关重要的影响。在分类任务的权威评测集ImageNet上,基于卷积网络的方法已经取得超越人类水平的进步,并也促使ImageNet完成了她的历史使命。这也是机器视觉领域的整体进步,优秀的特征、深刻的解释都为其他任务的应用提供了良好的基础。在本节中,我们选取了几个在检测任务
朱晓霞
2018/04/18
2.3K0
深度学习之基础网络演进、分类与定位的权衡|牛喀技研
【深度学习】CNN图像分类:从LeNet5到EfficientNet
在对卷积的含义有了一定的理解之后,我们便可以对CNN在最简单的计算机视觉任务图像分类中的经典网络进行探索。CNN在近几年的发展历程中,从经典的LeNet5网络到最近号称最好的图像分类网络EfficientNet,大量学者不断的做出了努力和创新。本讲我们就来梳理经典的图像分类网络。
黄博的机器学习圈子
2020/10/19
4.2K0
【深度学习】CNN图像分类:从LeNet5到EfficientNet
深度学习实战篇之 ( 十六) -- TensorFlow之ResNet
NIPS(NeurIPS),全称神经信息处理系统大会(Conference and Workshop on Neural Information Processing Systems),是一个关于机器学习和计算神经科学的国际会议。该会议固定在每年的12月举行,由NIPS基金会主办。NIPS是机器学习领域的顶级会议 。在中国计算机学会的国际学术会议排名中,NIPS为人工智能领域的A类会议。
用户5410712
2022/06/01
7220
深度学习实战篇之 ( 十六) -- TensorFlow之ResNet
深度残差收缩网络(四)注意力机制下的阈值设置
对于基于深度学习的分类算法,其关键不仅在于提取与标签相关的目标信息,剔除无关的信息也是非常重要的,所以要在深度神经网络中引入软阈值化。阈值的自动设置,是深度残差收缩网络的核心贡献。需要注意的是,软阈值化中的阈值,需要满足一定的条件。这篇文章中的阈值设置,事实上,是在注意力机制下进行的。下面分别介绍阈值需要满足的条件、注意力机制以及具体的阈值设置方法。
用户6831054
2019/12/21
6630
深度残差收缩网络(四)注意力机制下的阈值设置
明月深度学习实践005:ImageNet 2017夺冠架构SENet
这次本来准备写拆分注意力网络ResNeSt(ResNet的升级版),不过发现这涉及的基础比较多,所以先写一写它之前的一些相关的网络,SENet就是其中一个。
明月AI
2021/10/28
4030
明月深度学习实践005:ImageNet 2017夺冠架构SENet
深度学习实战篇之 ( 十二) -- TensorFlow之LetNet-5
在神经网络中,当前面隐藏层的学习速率低于后面隐藏层的学习速率,即随着隐藏层数目的增加,分类准确率反而下降了。这种现象叫做消失的梯度问题。
用户5410712
2022/06/01
3210
深度学习实战篇之 ( 十二) -- TensorFlow之LetNet-5
深度学习教程 | 经典CNN网络实例详解
本系列为吴恩达老师《深度学习专项课程(Deep Learning Specialization)》学习与总结整理所得,对应的课程视频可以在这里查看。
ShowMeAI
2022/04/15
1.1K0
深度学习教程 | 经典CNN网络实例详解
深度学习实现场景字符识别模型|代码干货
作者|李秋键 出品|AI科技大本营(ID:rgznai100) # 前言 # 文字是人从日常交流中语音中演化出来,用来记录信息的重要工具。文字对于人类意义非凡,以中国为例,中国地大物博,各个地方的口音都不统一,但是人们使用同一套书写体系,使得即使远隔千里,我们依然能够通过文字进行无障碍的沟通。文字也能够跨越时空,给予了我们了解古人的通道。随着计算机的诞生,文字也进行了数字化的进程,但是不同于人类,让计算机能够正确地进行字符识别是一个复杂又艰巨但意义重大的工作。从计算机诞生开始,无数的研究者在这方面做了很多工
AI科技大本营
2023/05/08
5080
深度学习实现场景字符识别模型|代码干货
【CV中的Attention机制】基础篇-视觉注意力机制和SENet
注意力机制(Attention Mechanism)是机器学习中的一种数据处理方法,广泛应用在自然语言处理、图像识别及语音识别等各种不同类型的机器学习任务中。注意力机制本质上与人类对外界事物的观察机制相似。通常来说,人们在观察外界事物的时候,首先会比较关注比较倾向于观察事物某些重要的局部信息,然后再把不同区域的信息组合起来,从而形成一个对被观察事物的整体印象。
深度学习技术前沿公众号博主
2020/05/25
9.3K0
【CV中的Attention机制】基础篇-视觉注意力机制和SENet
深度学习 | SENet
今天给大家分享的是2017年ImageNet的冠军模型 SENet 。WMW团队以极大的优势获得了最后一届ImageNet 2017竞赛图像分类任务的冠军。虽然不是业界的最新成果,但一些经典模型的学习也是大有裨益的。
老肥码码码
2020/01/17
6120
深度学习 | SENet
这是一篇适合新手的深度学习综述
论文:Recent Advances in Deep Learning: An Overview
Datawhale
2019/10/23
1.3K0
这是一篇适合新手的深度学习综述
注意力机制汇总,包括SE、CBAM、ECA等
注意力机制(Attention Mechanism)源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它。例如,人们在阅读时,通常只有少量要被读取的词会被关注和处理。综上,注意力机制主要有两个方面:决定需要关注输入的哪部分;分配有限的信息处理资源给重要的部分。
JOYCE_Leo16
2024/03/19
8.1K0
注意力机制汇总,包括SE、CBAM、ECA等
PyTorch实战:常用卷积神经网络搭建结构速览
PyTorch可以说是三大主流框架中最适合初学者学习的了,相较于其他主流框架,PyTorch的简单易用性使其成为初学者们的首选。这样我想要强调的一点是,框架可以类比为编程语言,仅为我们实现项目效果的工具,也就是我们造车使用的轮子,我们重点需要的是理解如何使用Torch去实现功能而不要过度在意轮子是要怎么做出来的,那样会牵扯我们太多学习时间。以后就出一系列专门细解深度学习框架的文章,但是那是较后期我们对深度学习的理论知识和实践操作都比较熟悉才好开始学习,现阶段我们最需要的是学会如何使用这些工具。
fanstuck
2024/12/29
2940
PyTorch实战:常用卷积神经网络搭建结构速览
全面!深度学习时间序列分类的综述!
时间序列分析中的时间序列分类(TSC)是关键任务之一,具有广泛的应用,如人体活动识别和系统监测等。近年来,深度学习在TSC领域逐渐受到关注,具有自动从原始时间序列数据中学习并抽取有意义特征的能力。
算法进阶
2024/05/02
3.2K0
全面!深度学习时间序列分类的综述!
综合 CNN 和 Transformer, Microscopic-Mamba 仅用 4M 参数揭示微观图像的秘密 !
显微镜成像技术在医学领域中至关重要,已成为现代医学研究和临床诊断的不可或缺的工具[1]。通过对显微镜图像进行分类,医学研究行人可以在组织、细胞和分子水平观察结构和动态变化,进一步理解疾病机制和病理过程[2]。然而,基于卷积神经网络(CNN)和视觉 Transformer (ViTs)的典型显微镜成像分类(MIC)任务存在局限性,这严重影响了它们捕捉长期信息的能力。虽然有些研究提出了一些方法来降低ViTs的计算复杂性,但牺牲了其在自注意力中捕捉全局信息的能力。因此,迫切需要一种新的架构,可以同时有效地捕捉全局和局部特征,同时保持线性复杂性。
未来先知
2024/10/22
2890
综合 CNN 和 Transformer, Microscopic-Mamba 仅用 4M 参数揭示微观图像的秘密 !
从基本组件到结构创新,67页论文解读深度卷积神经网络架构
【导读】近期一篇CNN综述文章《A Survey of the Recent Architectures of Deep Convolutional Neural Networks 》发布,受到了大家的关注,今天作者对论文中的内容做了中文的解读,帮助大家全面了解CNN架构进展。
AI科技大本营
2019/11/21
8240
从基本组件到结构创新,67页论文解读深度卷积神经网络架构
推荐阅读
相关推荐
Attention注意力机制及其在计算机视觉中的应用
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档