首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法

低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法

作者头像
新智元
发布于 2024-04-12 11:19:47
发布于 2024-04-12 11:19:47
2090
举报
文章被收录于专栏:新智元新智元

新智元报道

编辑:LRS

【新智元导读】EdgeNet可以处理从干净的自然图像或嘈杂的对抗性图像中提取的边缘,产生鲁棒的特征,具有轻量级、即插即用等特点,能够无缝集成到现有的预训练深度网络中,训练成本低。

在深度神经网络时代,深度神经网络(DNNs)在视觉分类任务中展现出了卓越的准确性。然而,它们对额外噪声,即对抗性攻击,表现出了脆弱性。先前的研究假设这种脆弱性可能源于高准确度的深度网络过度依赖于与纹理和背景等无关紧要且不鲁棒的特征。

最近的AAAI 2024学术会议上,悉尼大学的研究人员们揭示了「从图像中提取的边缘信息」能够提供与形状和前景相关的相关性强且鲁棒的特征。

论文链接:https://ojs.aaai.org/index.php/AAAI/article/view/28110

这些特征在帮助预训练深度网络改善对抗鲁棒性的同时,还不影响其在清晰图像上的准确性。

作者们提出了一种轻量级且即插即用的EdgeNet,可以无缝集成到现有的预训练深度网络中,包括Vision Transformers (ViTs),这是最新一代用于视觉分类的先进模型家族。

EdgeNet可以处理从干净的自然图像或嘈杂的对抗性图像中提取的边缘,产生鲁棒的特征,可以注入到预训练好并被冻结的的骨干深度网络的中间层。

值得注意的是,这种方法带来的额外成本极低:使用传统的边缘检测算法(例如文中所用的 Canny 边缘检测器)获取这些边缘的成本与深度网络的推理成本相比微乎其微;而训练EdgeNet 的成本则与使用诸如 Adapter 等技术对骨干网络进行微调的成本不相上下。

EdgeNet 架构

为了将图像中的边缘信息注入到预训练的骨干网络中,作者引入了一个名为 EdgeNet 的侧支网络。这个轻量级、即插即用的侧枝网络可以无缝地集成到现有的预训练深度网络中,包括像 ViTs 这样的最新模型。

EdgeNet 通过处理从输入图像中提取的边缘信息运行。这个过程产生了一组具有鲁棒性的特征,可以被选择性地注入到预训练好并被冻结的骨干深度网络的中间层。

通过注入这些鲁棒特征,能够提升网络在防御对抗性扰动方面的能力。同时,由于骨干网络是被冻结的,而新特征的注入是有选择性的,所以可以保持预训练网络在识别未经扰动的清晰图像方面的准确性。

如图所示,作者在原有的构建块

基础上,以一定间隔 N 插入新的 EdgeNet 构建块

。新的中间层输出可以由以下公式表示:

EdgeNet 构建块

为了实现选择性特征提取和选择性特征注入,这些 EdgeNet 构建块采取了一种“三明治”结构:每个块的前后都添加了零卷积(zero convolution)来控制输入与输出。在这两个零卷积之间是一个具有随机初始化的、与骨干网络架构相同的 ViT block

利用零输入,

充当提取与优化目标相关信息的过滤器;利用零输出, 充当确定要集成到骨干中的信息的过滤器。此外,通过零初始化,可以确保了骨干内的信息流保持不受影响。因此,对 EdgeNet 的后续微调变得更加简化。

训练目标

在训练 EdgeNet 的过程中,预训练好的 ViT 骨干网络除了分类头均被冻结住,不进行更新。优化目标仅专注于为边缘特征引入的 EdgeNet 网络,以及骨干网络内的分类头。在这里,作者采用了一个非常简化的联合优化目标以保障训练的效率:

在公式 9 中,α 是准确性损失函数的权重,β 是鲁棒性损失函数的权重。通过调整 α 和 β 的大小,可以微调 EdgeNet 训练目标的平衡性,以达到在提升其鲁棒性的同时不显著损失准确性的目的。

实验结果

作者们在 ImageNet 数据集上针对两大类鲁棒性进行了测试。

第一类是抵御对抗攻击的鲁棒性,包括白盒攻击与黑盒攻击;

第二类是抵御一些常见的扰动的鲁棒性,包括 ImageNet-A 中的自然对抗样本(Natural Adversarial Examples),ImageNet-R 中的分布外数据(Out-of-Distribution Data)和 ImageNet-C 中的常见数据扭曲(Common Corruptions)。

作者还针对不同扰动下提取到的边缘信息进行了可视化。

网络规模与性能测试

在实验部分,作者首先测试了不同规模 EdgeNet 的分类性能和计算开销(Table 1)。在综合考虑分类性能和计算计算开销后,他们确定 #Intervals = 3的配置为最佳设置。

在这个配置中,EdgeNet 与基准模型相比获得了显著的准确度和鲁棒性提升。它在分类性能、计算要求和鲁棒性之间取得了平衡的妥协。

该配置在保持合理的计算效率的同时,在清晰准确度和鲁棒性方面取得了实质性的增益。

准确性与鲁棒性对比

作者将他们提出的 EdgeNet 与5个不同类别的 SOTA 方法进行了对比(Table 2)。这些方法包括在自然图像上训练的 CNNs、鲁棒的 CNNs、在自然图像上训练的 ViTs、鲁棒的ViTs 和经过鲁棒微调的ViTs。

考虑的指标包括在对抗攻击(FGSM 和 PGD)下的准确性、在ImageNet-A上的准确性以及在ImageNet-R上的准确性。

此外,还报告了ImageNet-C 的平均错误(mCE),较低的值表示更好的性能。实验结果表明 EdgeNet 在面对 FGSM 和 PGD 攻击时展现出卓越的性能,同时在清晰的 ImageNet-1K 数据集及其变体上表现出与先前 SOTA 方法相持平的水平。

除此之外,作者还开展了黑盒攻击的实验(Table 3)。实验结果表明,EdgeNet 也能十分有效的抵挡黑盒攻击。

结论

在这项工作中,作者提出了一种名为 EdgeNet 的新方法,它通过利用从图像中提取到的边缘信息,可以提升深度神经网络(特别是 ViTs)的鲁棒性。

这是一个轻量级且可以无缝集成到现有网络中的模块,它能够有效的提高对抗性鲁棒性。实验证明,EdgeNet 具有高效性——它仅带来了极小的额外计算开销。

此外 EdgeNet 在各种鲁棒基准上具有广泛适用性。这使其成为该领域引人注目的进展。

此外,实验结果证实,EdgeNet 可以有效抵抗对抗性攻击,并能在干净图像上保持的准确性,这突显了边缘信息在视觉分类任务中作为鲁棒且相关特征的潜力。

值得注意的是,EdgeNet 的鲁棒性不仅限于对抗性攻击,还涵盖了涉及自然对抗性示例(ImageNet-A)、分布之外的数据(ImageNet-R)和常见破坏(ImageNet-C)情景。

这种更广泛的应用凸显了EdgeNet的多功能性,并显示其作为视觉分类任务中多样挑战的全面解决方案的潜力。

参考资料:

https://ojs.aaai.org/index.php/AAAI/article/view/28110

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-04-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
无惧对抗和扰动、增强泛化,阿里安全打造更鲁棒的ViT模型,论文入选CVPR 2022
机器之心专栏 机器之心编辑部 在本文中,阿里安全、澳大利亚斯威本科技大学和 EPFL 的研究者提出了一种新型 ViT 模型(Robust Vision Transformer, RVT),以及两项提高 ViT 鲁棒性的训练技术:位置相关的注意力缩放(PAAS)和基于图像块的数据增强。RVT 显著提升了视觉分类的鲁棒性和泛化性,在多个 ImageNet 鲁棒性基准上取得了 SOTA 效果。上述研究成果已被 CVPR 2022 收录。 尽管深度神经网络在视觉识别任务上已经取得了巨大成功,但其在对抗攻击和数据域
机器之心
2022/03/14
5670
AIGC时代,仅用合成数据训练模型到底行不行?来一探究竟 | CVPR 2024
论文: Is Synthetic Data all We Need? Benchmarking the Robustness of Models Trained with Synthetic Images
VincentLee
2024/08/30
2070
AIGC时代,仅用合成数据训练模型到底行不行?来一探究竟 | CVPR 2024
比谷歌BiT效果高4.3倍!IBM华人研究员多角度分析鲁棒性,发现Transformer是永远的神
CNN在CV的地位逐渐被Transformer取代,IBM华人研究员arxiv发文分析其鲁棒性,在ImageNet-A数据上竟超越谷歌BiT 4.3倍!
新智元
2021/05/28
4570
比谷歌BiT效果高4.3倍!IBM华人研究员多角度分析鲁棒性,发现Transformer是永远的神
CVPR 2020 Oral | 将SOTA行人再识别系统精度降至1.4%,中大、暗物智能等向视觉模式匹配的鲁棒性发起挑战
行人再识别(re-ID)——一种个人身份鉴别技术和继人脸识别之后的又一重要算法,随着深度学习的发展进入了一个新时代。在 Market-1501 上,各大公司玩命刷榜,甚至达到了超人类的识别水平。
机器之心
2020/05/19
7190
CVPR 2020 Oral | 将SOTA行人再识别系统精度降至1.4%,中大、暗物智能等向视觉模式匹配的鲁棒性发起挑战
英伟达开源新Backbone涨点方法STL | 让FAN Backbone直接登顶ImageNet-1K等数据集榜单
视觉 Transformer (ViTs)在视觉识别任务上近期取得了显著的成功。这种成功不仅归因于它们的自注意力表示,也归功于新开发的训练配置。例如,在训练技术方面的改进,如强大的数据增强和知识蒸馏,大大缓解了ViTs的耗数据问题,使其对于在ImageNet-1K上的训练更加可行。
集智书童公众号
2024/01/17
4660
英伟达开源新Backbone涨点方法STL | 让FAN Backbone直接登顶ImageNet-1K等数据集榜单
论文推荐-使用 Noisy Student 进行自训练可以提高 ImageNet 分类的表现
使用 Noisy Student 进行自训练改进 ImageNet 分类是一篇由 Google Research、Brain Team 和Carnegie Mellon大学发表在2020 CVPR的论文
deephub
2022/03/12
5750
论文推荐-使用 Noisy Student 进行自训练可以提高 ImageNet 分类的表现
整合相似度度量:共识标准推动层剪枝技术的三赢解决方案 !
深度学习正在将机器学习推向许多认知任务的人机水平,如计算机视觉和自然语言处理[53]。在这个方向上,超参数化的模型因其能够表示数据中的高复杂性模式而流行,使得解决非凸问题变得更加容易。然而,这些模型存在高计算成本和内存消耗,限制了它们在低资源、无基础设施场景的应用。此外,高容量模型在遭受对抗攻击时容易产生错误预测,即输入的微小扰动迫使模型在预测中出错,使其在安全性和关键任务中不可靠。这些问题提出了以下困境:如何获得高预测能力、低成本和鲁棒性模型?现有研究证实,剪枝策略已成为解决上述困境的有前景的解决方案。例如,最先进的剪枝技术在保持模型准确性的同时,移除了超过75%的浮点运算(FLOPs)和参数。这一技术家族在提高对抗鲁棒性方面也取得了积极的结果,即使仅在干净图像或对抗样本上进行训练[3, 29, 46, 2]。这些好处已经吸引了大量关于剪枝技术的研究,并证实剪枝技术在基础模型时代占据了重要地位[40, 52]。
未来先知
2024/12/24
1900
整合相似度度量:共识标准推动层剪枝技术的三赢解决方案 !
论文导读:Universal Adversarial Training
在这篇论文中,作者提出了一种优化的方法来找到给定模型的通用对抗样本(首先在 Moosavi-Desfooli 等人 [1] 中引入)。作者还提出了一种低成本算法来增强模型对此类扰动的鲁棒性。
deephub
2022/04/14
3460
论文导读:Universal Adversarial Training
Quoc Le推新论文:打破常规,巧用对抗性样本改进图像识别性能
近日,谷歌大脑的创始成员和 AutoML 的缔造者之一Quoc Le再推新研究论文,在题为“对抗性样本改善图像识别”一文中提出一种增强的对抗训练将对抗性样本AdvProp。
新智元
2019/12/03
8990
Quoc Le推新论文:打破常规,巧用对抗性样本改进图像识别性能
ICLR 2018 | 斯坦福大学论文通过对抗训练实现可保证的分布式鲁棒性
选自ICLR 作者:Aman Sinha, Hongseok Namkoong, John Duchi 机器之心编译 参与:Jane W、黄小天、许迪 神经网络容易受到对抗样本的影响,研究者们提出了许多启发式的攻击和防御机制。本文主要从分布式鲁棒优化的角度出发,从而保证了对抗输入扰动下神经网络的性能。 试想经典的监督学习问题,我们最小化期望损失函数 EP0 [ℓ(θ;Z)](θ∈Θ),其中 Z〜P0 是空间 Z 上的分布,ℓ 是损失函数。在许多系统中,鲁棒性对于变化的数据生成分布 P0 是可取的,不管它们来
机器之心
2018/05/10
6730
对抗鲁棒分类器神经网络画风迁移
我最近读了一篇有趣的文章,文章的题目是《对抗性的例子不是bug,而是特性》,这篇文章内容是关于一种截然不同的方式来看待对抗性的例子(1)。您可以点击文章底部原文链接,在网站文章中阅读此篇内容。
AiTechYun
2019/07/05
5240
对抗鲁棒分类器神经网络画风迁移
Transformer | 详细解读Transformer怎样从零训练并超越ResNet?
Vision Transformers(ViTs)和MLPs标志着在用通用神经架构替换手动特征或归纳偏置方面的进一步努力。现有工作通过大量数据为模型赋能,例如大规模预训练和/或重复的强数据增广,并且还报告了与优化相关的问题(例如,对初始化和学习率的敏感性)。
集智书童公众号
2021/07/07
1.7K0
DVERGE:通过“缺陷”多样化构建鲁棒集成模型 | 杨幻睿本人解读
本文是AI科技评论今日(10月20日)头条推文《14岁考入清华,22岁博士四年级,杜克大学杨幻睿的AI成长之路》的主人公杜克大学博士生杨幻睿对他这次NeurIPS 2020 Oral 论文的亲自解读。
AI科技评论
2020/11/06
7720
DVERGE:通过“缺陷”多样化构建鲁棒集成模型 | 杨幻睿本人解读
即插即用:把仿生模块和CNN拼接,对抗攻击鲁棒性显著提高!
如今,深度学习已经不仅局限于识别支票与信封上的手写文字。比如,深度神经网络已成为许多CV应用的关键组成部分,包括照片与视频编辑器、医疗软件与自动驾驶汽车等。
AI科技评论
2020/12/18
1K0
即插即用:把仿生模块和CNN拼接,对抗攻击鲁棒性显著提高!
AI算法对抗攻击和防御技术综述「AI核心算法」
随着计算机产业发展带来的计算性能与处理能力的大幅提高,人工智能在音视频识别、自然语言处理和博弈论等领域得到了广泛应用。在此背景下,确保人工智能的核心——深度学习算法具有可靠的安全性和鲁棒性至关重要。
用户7623498
2020/09/14
3.4K0
AI算法对抗攻击和防御技术综述「AI核心算法」
​中科院联合多所高校提出 AdvLoRA | 通过数据增强,攻击检测等对抗模型攻击,提高模型安全性和鲁棒性!
随着VLMs规模的增大,用全参数更新来提高VLMs的对抗鲁棒性的传统对抗训练方法将导致高昂的计算和存储成本。近年来,由于在调整大规模预训练模型方面的显著成功,参数高效微调(PEFT)技术作为新型的适应范式受到了广泛关注。PEFT技术可以使用极小的额外可调参数调整VLMs,并且在性能上与FFT方法相当或更优。尽管PEFT技术在自然场景中取得了显著的成功,但在对抗攻击场景中的应用仍然很大程度上未被探索。但简单地在传统适应方法上应用对抗训练将导致1)防御性能有限和2)计算和存储成本高昂。为了验证作者的观点,作者在图2中可视化了不同对抗适应方法的对抗鲁棒性性能和可调参数数量。从结果中,作者发现FFT和UniAdapter等现有适应方法会导致大的参数成本。此外,LoRA、LP和Aurora对对抗攻击并不鲁棒。
AIGC 先锋科技
2024/07/08
4880
​中科院联合多所高校提出 AdvLoRA | 通过数据增强,攻击检测等对抗模型攻击,提高模型安全性和鲁棒性!
【硬核书】机器学习对抗鲁棒性
来源:专知本文为书籍介绍,建议阅读5分钟本书介绍了对抗性攻击、防御和验证的常用算法。 机器学习的对抗性鲁棒性综述了该课题的最新进展,介绍了对抗性攻击、防御和验证的常用算法。章节涵盖了对抗性攻击、验证和防御,主要关注图像分类应用,这是对抗性鲁棒性社区考虑的标准基准。其他部分讨论了图像分类以外的对抗例子,测试时间攻击以外的其他威胁模型,以及对抗鲁棒性的应用。对于研究人员,本书提供了一个全面的文献综述,总结了该领域的最新进展,可以作为一个很好的参考,进行未来的研究。此外,本书还可以作为研究生课程的教材,讲授对抗
数据派THU
2022/09/23
7100
【硬核书】机器学习对抗鲁棒性
学界 | 精准防御对抗性攻击,清华大学提出对抗正则化训练方法DeepDefense
选自arXiv 作者:Ziang Yan等 机器之心编译 参与:刘晓坤、黄小天 本文提出了一个名为 DeepDefense 的训练方案,其核心思想是把基于对抗性扰动的正则化项整合进分类目标函数,从而使模型可以学习直接而精确地防御对抗性攻击。在 MNIST、CIFAR-10 和 ImageNet 上的扩展实验证明了该方法可以显著提高不同深度学习模型对高强度对抗攻击的鲁棒性,同时还不会牺牲准确率。 虽然深度神经网络(DNN)在许多挑战性的计算机视觉任务中都取得了当前最优的表现,但在对抗样本(在人类感知上和真实图
机器之心
2018/05/09
1.4K0
专访 | 对抗样本攻防战,清华大学TSAIL团队再获CAAD攻防赛第一
同样在去年,该团队在 NIPS 2017 AI 对抗性攻防竞赛的三项比赛任务中(有/无特定目标攻击;攻击检测),全部获得冠军,战胜了包括斯坦福、约翰霍普金斯大学等世界著名高校在内的 100 多支代表队,在人工智能模型的鲁棒性和安全性应用方面迈出了重要一步。
机器之心
2018/09/20
1.2K0
专访 | 对抗样本攻防战,清华大学TSAIL团队再获CAAD攻防赛第一
技术解读EfficientNet系列模型——图片分类的领域的扛把子
EfficientNet系列模型作为图片分类领域精度最高的模型(没有之一)。它到底用了哪些技术?有哪些值得我们借鉴的地方?本文将详细阐述一下这个事情。具体内容如下:
代码医生工作室
2020/02/11
17K0
推荐阅读
无惧对抗和扰动、增强泛化,阿里安全打造更鲁棒的ViT模型,论文入选CVPR 2022
5670
AIGC时代,仅用合成数据训练模型到底行不行?来一探究竟 | CVPR 2024
2070
比谷歌BiT效果高4.3倍!IBM华人研究员多角度分析鲁棒性,发现Transformer是永远的神
4570
CVPR 2020 Oral | 将SOTA行人再识别系统精度降至1.4%,中大、暗物智能等向视觉模式匹配的鲁棒性发起挑战
7190
英伟达开源新Backbone涨点方法STL | 让FAN Backbone直接登顶ImageNet-1K等数据集榜单
4660
论文推荐-使用 Noisy Student 进行自训练可以提高 ImageNet 分类的表现
5750
整合相似度度量:共识标准推动层剪枝技术的三赢解决方案 !
1900
论文导读:Universal Adversarial Training
3460
Quoc Le推新论文:打破常规,巧用对抗性样本改进图像识别性能
8990
ICLR 2018 | 斯坦福大学论文通过对抗训练实现可保证的分布式鲁棒性
6730
对抗鲁棒分类器神经网络画风迁移
5240
Transformer | 详细解读Transformer怎样从零训练并超越ResNet?
1.7K0
DVERGE:通过“缺陷”多样化构建鲁棒集成模型 | 杨幻睿本人解读
7720
即插即用:把仿生模块和CNN拼接,对抗攻击鲁棒性显著提高!
1K0
AI算法对抗攻击和防御技术综述「AI核心算法」
3.4K0
​中科院联合多所高校提出 AdvLoRA | 通过数据增强,攻击检测等对抗模型攻击,提高模型安全性和鲁棒性!
4880
【硬核书】机器学习对抗鲁棒性
7100
学界 | 精准防御对抗性攻击,清华大学提出对抗正则化训练方法DeepDefense
1.4K0
专访 | 对抗样本攻防战,清华大学TSAIL团队再获CAAD攻防赛第一
1.2K0
技术解读EfficientNet系列模型——图片分类的领域的扛把子
17K0
相关推荐
无惧对抗和扰动、增强泛化,阿里安全打造更鲁棒的ViT模型,论文入选CVPR 2022
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档