Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >APReLU:跨界应用,用于机器故障检测的自适应ReLU | IEEE TIE 2020

APReLU:跨界应用,用于机器故障检测的自适应ReLU | IEEE TIE 2020

原创
作者头像
VincentLee
修改于 2020-11-06 02:17:39
修改于 2020-11-06 02:17:39
7730
举报

论文的工作属于深度学习在工业界的应用,借鉴计算机视觉的解决方法,针对机器故障检测的场景提出自适应的APReLU,对故障检测的准确率有很大的提升。论文整体思想应该也可以应用于计算机视觉,代码也开源了,大家可以尝试下undefined 

来源:晓飞的算法工程笔记 公众号

论文: Deep Residual Networks with Adaptively Parametric Rectifier Linear Units for Fault Diagnosis

Introduction


  论文讨论的场景是电子设备的错误检测,由于在苛刻环境下长期运行,电子设备经常会不可避免地出现故障,进而造成意外和损失。而振动信号(vibration signal)通常包含由于机器故障引起脉冲和波动,可用来检测设备故障。近期,深度学习方法也被用于电子设备的错误检测中,将振动信号作为输入,输出当前设备是否正常。

  主流的分类神经网络使用一组完全相同的非线性变换来处理不同的输入,如图a所示,F、G和H代表非线性变化,$=$代表非线性变换是否相同。对于振动信号场景而言,相同健康状态的机器,由于当前操作不同,反馈的振动信号的差异可能较大,很难将不同波形的归为同一健康状态。相反的,不同健康状态的机器偶然会产生相同的振动信号,神经网络会将其映射到相近的区域,难以区分。综上,固定的非线性变换在振动信号场景中可能会对特征学习能力带来负面的影响,能够自动学习并根据输入信号使用不同的非线性变换是十分有意义的。

  论文基于ResNet提出了改进版ResNet-APReLU,如图b所示,根据输入信号赋予不同的非线性变换,具体是通过插入一个类似SE(squeeze-and-excitation)模块的子网来调整激活函数的斜率,能够大幅提升故障检测的准确率。由于论文的场景比较特殊,所以主要学习论文提出的方法,至于应用场景相关的部分和实验部分,就简单地带过就好了。

Fundamentals of classical ResNets


  论文以ResNet为基础,ResNet的核心结构如图2a所示,相信各位都很清楚,就不再介绍了。将ResNet应用到机器错误识别中,如图2b所示,输入振动信号,经过网络的特征提取后进行状态识别,判断机器是健康还是处于其它错误状态中。论文的核心是通过改进ReLU进行自适应的非线性变换,原版ReLU可公式化为:

Design of the developed ResNet-APReLU


Design of the fundamental architecture for APReLU

  APReLU集成了一个特别设计的子网,有点类似于SE模块,根据输入自适应地预测用于非线性变换的乘法因子,结构如图3a所示,输出channel-wise的ReLU参数,包含以下步骤:

  1. 用ReLU和GAP将输入特征映射到1D向量,获取正面特征(positive feature)的全局信息。用min(x, 0)和GAP将输入特征映射到另一个1D向量,获取负面特征(negative feature)的全局信息,负面信息可能包含某些有用的故障信息。GAP能够处理信号的偏移问题,将输入特征图信息压缩为两个1D向量,分别代表正面和负面信息。
  2. 将两个1D向量Concate到一起,进行FC-BN-ReLU-FC-BN-Sigmoid计算,两个FC的输出与输入特征的维度一致,最后sigmoid输出用于公式10的$\alpha \in (0, 1)$因子:

Architecture of the developed ResNet-APReLU for vibration-based gearbox fault diagnosis

  基于APEeLU构建新的ResBlock,如图b所示,与原版的ResBlock基本一致,只是将ReLU替换为APReLU进行自适应非线性激活。APReLU的输出大小跟输入大小一样,可以简单地嵌入到各种网络中。完整的网络结构如图c所示,最后输出多个机器状态的预测,计算交叉熵损失,进行梯度下降学习。

Experimental Results


  从结果来看,针对机器故障的场景,论文提出的方法是十分有效的。

Conclustion


  论文的工作属于深度学习在工业界的应用,借鉴计算机视觉的解决方法,针对机器故障检测的场景提出自适应的APReLU,对故障检测的准确率有很大的提升。论文整体思想应该也可以应用于计算机视觉,代码也开源了,大家可以尝试下。

如果本文对你有帮助,麻烦点个赞或在看呗~undefined更多内容请关注 微信公众号【晓飞的算法工程笔记】

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
注意力机制下的激活函数:自适应参数化ReLU
本文在综述传统激活函数和注意力机制的基础上,解读了一种注意力机制下的激活函数,即自适应参数化修正线性单元(Adaptively Parametric Rectifier Linear Unit,APReLU),希望对大家有所帮助。
用户6831054
2020/02/24
1.1K0
注意力机制下的激活函数:自适应参数化ReLU
GhostNet: 使用简单的线性变换生成特征图,超越MobileNetV3的轻量级网络 | CVPR 2020
论文: GhostNet: More Features from Cheap Operations
VincentLee
2020/02/25
1.9K0
Dynamic ReLU:微软推出提点神器,可能是最好的ReLU改进 | ECCV 2020
ReLU是深度学习中很重要的里程碑,简单但强大,能够极大地提升神经网络的性能。目前也有很多ReLU的改进版,比如Leaky ReLU和 PReLU,而这些改进版和原版的最终参数都是固定的。所以论文自然而然地想到,如果能够根据输入特征来调整ReLU的参数可能会更好。
VincentLee
2020/11/08
1.2K0
Dynamic ReLU:微软推出涨点神器!可能是最好的ReLU改进 | ECCV 2020
论文提出了动态ReLU,能够根据输入动态地调整对应的分段激活函数,与ReLU及其变种对比,仅需额外的少量计算即可带来大幅的性能提升,能无缝嵌入到当前的主流模型中
Amusi
2020/09/23
8360
Dynamic ReLU:微软推出涨点神器!可能是最好的ReLU改进 | ECCV 2020
超越ReLU却鲜为人知,3年后被挖掘:BERT、GPT-2等都在用的激活函数
作为决定神经网络是否传递信息的「开关」,激活函数对于神经网络而言至关重要。不过今天被人们普遍采用的 ReLU 真的是最高效的方法吗?最近在社交网络上,人们找到了一个看来更强大的激活函数:GELU,这种方法早在 2016 年即被人提出,然而其论文迄今为止在 Google Scholar 上的被引用次数却只有 34 次。
OpenCV学堂
2020/01/20
7580
超越ReLU却鲜为人知,3年后被挖掘:BERT、GPT-2等都在用的激活函数
ECCV2020 | FReLU:旷视提出一种新的激活函数,实现像素级空间信息建模
论文地址:https://arxiv.org/pdf/2007.11824.pdf
AI算法修炼营
2020/07/28
2.3K0
ECCV2020 | FReLU:旷视提出一种新的激活函数,实现像素级空间信息建模
深度学习故障诊断:残差收缩网络 Residual Shrinkage Networks
深度残差收缩网络是深度残差网络的一种改进,针对的是数据中含有噪声或冗余信息的情况,将软阈值函数引入深度残差网络的内部,通过消除冗余特征,增强高层特征的判别性。其核心部分就是下图所示的基本模块:
用户7621073
2020/08/14
1.2K0
深度学习故障诊断:残差收缩网络 Residual Shrinkage Networks
DenseNet详解
作为CVPR2017年的Best Paper, DenseNet脱离了加深网络层数(ResNet)和加宽网络结构(Inception)来提升网络性能的定式思维,从特征的角度考虑,通过特征重用和旁路(Bypass)设置,既大幅度减少了网络的参数量,又在一定程度上缓解了gradient vanishing问题的产生.结合信息流和特征复用的假设,DenseNet当之无愧成为2017年计算机视觉顶会的年度最佳论文.
SIGAI学习与实践平台
2018/09/29
3770
DenseNet详解
DenseNet详解
作为CVPR2017年的Best Paper, DenseNet脱离了加深网络层数(ResNet)和加宽网络结构(Inception)来提升网络性能的定式思维,从特征的角度考虑,通过特征重用和旁路(Bypass)设置,既大幅度减少了网络的参数量,又在一定程度上缓解了gradient vanishing问题的产生.结合信息流和特征复用的假设,DenseNet当之无愧成为2017年计算机视觉顶会的年度最佳论文.
SIGAI学习与实践平台
2018/08/27
1.7K0
DenseNet详解
LORS:腾讯提出低秩残差结构,瘦身模型不掉点 | CVPR 2024
论文: LORS: Low-rank Residual Structure for Parameter-Efficient Network Stacking
VincentLee
2024/04/22
2190
LORS:腾讯提出低秩残差结构,瘦身模型不掉点 | CVPR 2024
DeepLab、DeepLabv3、RefineNet、PSPNet…你都掌握了吗?一文总结图像分割必备经典模型(二)
 机器之心专栏 本专栏由机器之心SOTA!模型资源站出品,每周日于机器之心公众号持续更新。 本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务,并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及 API 等资源。 本文将分 3 期进行连载,共介绍 19 个在图像分割任务上曾取得 SOTA 的经典模型。 第 1 期:FCN、ReSeg、U-Net、ParseNet、DeepMask、S
机器之心
2023/05/16
1.4K0
DeepLab、DeepLabv3、RefineNet、PSPNet…你都掌握了吗?一文总结图像分割必备经典模型(二)
旷视科技首席科学家孙剑:如何打造云、端、芯上的视觉计算 | CCF-GAIR 2018
AI 科技评论按:2018 全球人工智能与机器人峰会(CCF-GAIR)在深圳召开,峰会由中国计算机学会(CCF)主办,雷锋网、香港中文大学(深圳)承办,得到了深圳市宝安区政府的大力指导,是国内人工智能和机器人学术界、工业界及投资界三大领域的顶级交流盛会,旨在打造国内人工智能领域最具实力的跨界交流合作平台。
AI科技评论
2018/07/27
7300
旷视科技首席科学家孙剑:如何打造云、端、芯上的视觉计算 | CCF-GAIR 2018
MobileNetV1/V2/V3简述 | 轻量级网络
论文: MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
VincentLee
2020/07/08
1.5K0
ECCV 2020 | SADNet:用于单图像去噪的空间自适应网络
Title:Spatial-Adaptive Network for Single ImageDenoising(SADNet):用于单张图像去噪的空间自适应网络
Amusi
2020/09/23
2.4K0
ECCV 2020 | SADNet:用于单图像去噪的空间自适应网络
【最强ResNet改进系列】IResNet:涨点不涨计算量,可训练网络超过3000层!
【导读】本篇文章是【最强ResNet改进系列】的第四篇文章,前面我们已经介绍了Res2Net和ResNeSt,具体见:【最强ResNet改进系列】Res2Net:一种新的多尺度网络结构,性能提升显著 和【CV中的注意力机制】史上最强"ResNet"变体--ResNeSt。本文我们将着重讲解IResNet,阿联酋起源人工智能研究院(IIAI)的研究人员,进一步深入研究了残差网络不能更深的原因,提出了改进版的残差网络(Improved Residual Networks for Image and Video Recognition),IResNet可训练网络超过3000层!相同深度但精度更高,与此同时,IResNet还能达到涨点不涨计算量的效果,在多个计算机视觉任务(图像分类,COCO目标检测,视频动作识别)中精度得到了显著提升。
深度学习技术前沿公众号博主
2020/09/01
5K0
Deblurring with Parameter Selective Sharing and Nested Skip Connections
动态场景去模糊是一项具有挑战性的低水平视觉任务,其中空间变异模糊是由相机抖动和物体运动等多种因素造成的。最近的研究取得了重大进展。通过与参数无关方案和参数共享方案的比较,提出了一种通用的、有效的选择性共享方案,给出了约束去模糊网络结构的一般原则。在每个尺度的子网中,我们提出了一种非线性变换模块的嵌套跳跃连接结构来代替堆叠的卷积层或剩余块。此外,我们建立了一个新的大的模糊/锐化图像对数据集,以获得更好的恢复质量。综合实验结果表明,本文提出的参数选择共享方案、嵌套式跳跃连接结构和新数据集对建立动态场景去模糊新技术具有重要意义。
狼啸风云
2019/10/22
1.9K0
Deblurring with Parameter Selective Sharing and Nested Skip Connections
深度学习+EEG:一种采用单通道EEG检测被试注意力状态的卷积神经网络构架
脑机接口(BCI)系统可以记录并处理大脑信号并将其转换为输出命令,其可用于各种应用场景,如辅助技术,神经康复和认知增强等。在各种用于脑信号记录的技术中,脑电图(EEG)是BCI研究中研究最多的方法。而基于EEG的认知BCI,旨在评估和增强诸如注意力等认知功能。 之前的研究更多的关注于选取合适的特征,以将其用来对注意力程度进行分类。用于监视专注精神状态的现有技术方法主要与EEG频带中的特定频段有关。大量的研究调查了注意力引起的beta,alpha 和不同频段之间能量比值的变化。总体而言,很多研究认为像beta这样的高频段活动增加是一种注意唤醒的指标,另外一些研究表明θ和β的能量比值、α和θ能量的降低也表明较高的专注程度。 深度学习近年来在语音识别及图像识别领域取得了非常突出的表现,因其可以自动提取相关特征用于分类任务,近年来将深度学习技术应用于EEG数据的研究也逐渐增多。但是深度学习技术应用于认知BCI的研究目前还较少。近期,来自新加坡的研究团队在Journal of Neural Engineering杂志发表题目为《Inter-subject transfer learning with end-to-end deep convolutional neural network for EEG-based BCI》研究论文,其提出了一种深度学习框架,利用单通道EEG信号来检测被试的注意力状态,可以显著提高被试间注意力检测任务的准确性。 材料与方法 1.数据
悦影科技
2021/01/24
1.4K0
深度学习+EEG:一种采用单通道EEG检测被试注意力状态的卷积神经网络构架
用于机器视觉任务的图像压缩前处理
最近,越来越多的图像被压缩并发送到后端设备进行机器视觉分析任务(例如目标检测),而不仅仅是供人类观看。然而,大多数传统的或可学习的图像编解码器都是最小化人类视觉系统的失真,而没有考虑到机器视觉系统的需求。在这项工作中,我们提出了一种用于机器视觉任务的图像压缩前处理方法。我们的框架不依赖于可学习的图像编解码器,而是可用于传统的非可微分编解码器,这意味着它与编码标准兼容,并且可以轻松部署在实际应用中。具体而言,我们在编码器之前增加一个神经网络前处理模块,用于保留对下游任务有用的语义信息并抑制无关信息以节省比特率。此外,我们的神经网络前处理模块是量化自适应的,可以在不同的压缩比下使用。更重要的是,为了联合优化前处理模块和下游机器视觉任务,我们在反向传播阶段引入了传统非可微分编解码器的代理网络。我们在几个具有不同骨干网络的代表性下游任务上进行了广泛的实验。实验结果表明,我们的方法通过节省约20%的比特率,在编码比特率和下游机器视觉任务性能之间取得了更好的权衡。
用户1324186
2023/09/09
5970
用于机器视觉任务的图像压缩前处理
CVPR2020 | 显著性目标检测,多尺度信息相互融合
论文地址:https://arxiv.org/pdf/2007.09062.pdf
AI算法修炼营
2020/07/22
3.6K0
CVPR2020 | 显著性目标检测,多尺度信息相互融合
深度学习在故障检测中的应用:从理论到实践
随着工业设备和信息系统的复杂性增加,故障检测成为企业运维的重要任务。然而,传统的基于规则或统计学的故障检测方法难以应对复杂多变的故障模式。深度学习作为一种强大的数据分析工具,为故障检测提供了新的解决思路。本文将介绍深度学习模型在故障检测中的核心应用,并结合代码示例,展示如何基于深度学习构建智能故障检测系统。
Echo_Wish
2024/12/09
3580
推荐阅读
注意力机制下的激活函数:自适应参数化ReLU
1.1K0
GhostNet: 使用简单的线性变换生成特征图,超越MobileNetV3的轻量级网络 | CVPR 2020
1.9K0
Dynamic ReLU:微软推出提点神器,可能是最好的ReLU改进 | ECCV 2020
1.2K0
Dynamic ReLU:微软推出涨点神器!可能是最好的ReLU改进 | ECCV 2020
8360
超越ReLU却鲜为人知,3年后被挖掘:BERT、GPT-2等都在用的激活函数
7580
ECCV2020 | FReLU:旷视提出一种新的激活函数,实现像素级空间信息建模
2.3K0
深度学习故障诊断:残差收缩网络 Residual Shrinkage Networks
1.2K0
DenseNet详解
3770
DenseNet详解
1.7K0
LORS:腾讯提出低秩残差结构,瘦身模型不掉点 | CVPR 2024
2190
DeepLab、DeepLabv3、RefineNet、PSPNet…你都掌握了吗?一文总结图像分割必备经典模型(二)
1.4K0
旷视科技首席科学家孙剑:如何打造云、端、芯上的视觉计算 | CCF-GAIR 2018
7300
MobileNetV1/V2/V3简述 | 轻量级网络
1.5K0
ECCV 2020 | SADNet:用于单图像去噪的空间自适应网络
2.4K0
【最强ResNet改进系列】IResNet:涨点不涨计算量,可训练网络超过3000层!
5K0
Deblurring with Parameter Selective Sharing and Nested Skip Connections
1.9K0
深度学习+EEG:一种采用单通道EEG检测被试注意力状态的卷积神经网络构架
1.4K0
用于机器视觉任务的图像压缩前处理
5970
CVPR2020 | 显著性目标检测,多尺度信息相互融合
3.6K0
深度学习在故障检测中的应用:从理论到实践
3580
相关推荐
注意力机制下的激活函数:自适应参数化ReLU
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档