Loading [MathJax]/jax/element/mml/optable/BasicLatin.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >黑盒攻击很难?元学习提高"黑盒对抗攻击"成功率

黑盒攻击很难?元学习提高"黑盒对抗攻击"成功率

作者头像
CV君
发布于 2022-04-18 12:36:30
发布于 2022-04-18 12:36:30
1.4K0
举报

本文分享论文『Boosting Black-Box Adversarial Attacks with Meta Learning』,元学习提高黑盒对抗攻击。

详细信息如下:

  • 论文链接:https://arxiv.org/abs/2203.14607

01

引言

深度学习中,黑盒攻击是对抗攻击中最难的一种攻击方式,它不像白盒攻击可以获取到足够的模型和数据集的知识,它只能依靠简单的输入和输出映射信息来对未知模型进行攻击,所以,这就导致了黑盒攻击攻击成功率较低和查询次数较高的问题。

在该论文中,作者提出了一种混合的攻击方式,将元对抗扰动作为初始化并利用模拟梯度进行黑盒攻击,元对抗扰动的一个优势在于有较好的迁移性和泛化性。实验结果表明,论文中的方法在不仅可以提高攻击成功率,也可以有效地降低查询次数。

02

预备知识

黑盒攻击目前存在三种攻击方式,分别是基于迁移的方式,基于查询的方式和混合的方式。

  • 基于迁移的方式:如果一个对抗样本可以攻击当前的深度模型(该对抗样本可能是在白盒设置下产生的),那么它也有一定的概率可以成功攻击其它模型,但这种攻击方式的缺点在于攻击成功率较低。
  • 基于查询的攻击:这种攻击方式主要是通过查询结果的差异进而去估计模型的梯度。该攻击方式的一个主要的缺点在于如果想要达到一个较高的准确率则需要较高的查询次数。
  • 基于混合的方式:该攻击是将迁移攻击和查询攻击整合到一起,这样既可以考虑到到迁移的先验知识又能够利用到针对特定模型的模拟的梯度信息,该方法弥补了迁移攻击低准确率和查询攻击高访问代价的不足。

03

论文方法

该论文的方法是属于混合攻击的方式, 但又与其它混合攻击将代理模型的梯度作为先验知识不同,该论文的方法目的是根据对抗样本的可迁移性和自适应性训练出一个更普适的对抗扰动作为扰动的初始状态值。在黑盒条件下,通过元学习的方式生成元对抗扰动,该扰动可以针对不同的图片进行更高效的对抗攻击。

元对抗扰动训练

考虑一个黑盒模型和已知结构和参数的代理模型。一个随机初始化的元对抗扰动被记作,表示损失函数。表示用于生成元对抗扰动的训练集。当给定一批新的数据点时,元对抗扰动会被更新为。作者的目的是找到一个通用的元对抗扰动,对任何新的数据点它都是一个好的初始化对抗扰动值。对于有目标攻击中,一个扰动满足如下公式

其中是目标标签,是数据分布。元对抗扰动屏蔽样本特性,可以普适性攻击的特点对于黑盒攻击来说,既可以大大减少查询访问黑盒模型的次数,又能提高对抗攻击的效率。

元对抗扰动主要通过使用梯度迭代法进行训练。因为黑盒攻击很难直接获取到目标模型的梯度,所以论文作者利用元学习在代理模型中进行训练,然后利用对抗样本的可迁移性对目标黑盒模型进行攻击。论文中采用多步迭代法在新数据点上更新元对抗扰动,具体的公式如下所示

其中是超参数,通常会被设置的很小。是更新后的对抗扰动。对应的优化目标如下所示:

对于以上优化目标,作者主要目的是在数据中找到一个更好的适应扰动,然后在新的数据点迭代优化元对抗扰动,进而可以获得一个最大有效的对抗干扰,它可以以较高的成功率执行攻击,并获得更好的适应性。

随机梯度下降法主要用于更新元对抗扰动,具体的公式如下所示

其中表示的是学习率。元对抗扰动的算法流程图如下所示

基于查询攻击

利用该论文的方法,一些图像在添加元对抗扰动后可以成功地直接攻击黑盒模型,而无需其他操作,但如果攻击没有成功,则需要使用零阶优化算法持续执行攻击,以估计黑盒模型的梯度。这里使用RGF方法估计模型的梯度,具体的公式如下所示:

图像通过使用在范数下的模拟梯度进行迭代更新。为了提高攻击的效率,在迭代过程中加入了动量项,即图像的两个相邻迭代之间的差值。更新后的图片表示为

其中表示的是步长,是动量系数,是符号函数。在每一个步迭代后,都需要进行投影操作,具体公式如下所示:

其中将向量投影到范数球。如下图所示,为黑盒元对抗攻击的算法流程图

04

实验结果

下表显示了黑盒攻击的成功率、生成对抗样本所需的平均查询数以及所有对抗样本的平均失真。可以看出,与其他方法相比,论文的方法通常会有更高的成功率、更少的查询次数和相对较小的失真。

当查询数量有限时,论文的方法在某些模型中的成功率比其他方法提高了约10%,而且该方法通常使用较少的查询来获得相同的成功率。实验结果还表明,该方法生成的对抗扰动对新的数据点具有很好的可迁移性和适应性,可以很好地处理被攻击的数据集,并能很好地执行黑盒攻击。

下图显示出了论文方法对抗样本可视化定性结果。左栏显示了要攻击的原始图像,中栏显示了论文方法生成的对抗干扰,右栏显示了与目标类对应的对抗样本。可以看出,论文的方法造成的图像扭曲几乎是看不见的。

如下表所示,可以发现在不知道被攻击类的特征的情况下,论文的方法比其他方法获得了更高的成功率。在所有模型中,论文的方法实现了最高的攻击成功率,在某些模型中,成功率甚至提高了10%以上。但是由于缺乏先验特征知识,论文的方法在某些模型中会造成较大的失真情况。然而在整体性能方面仍然优于其他方法,同时也证明了该方法生成的对抗扰动具有良好的自适应性和通用性。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-04-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 我爱计算机视觉 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法
与卷积神经网络(CNN)相比,Vision transformers(ViTs)在一系列计算机视觉任务中表现出惊人的性能。然而,ViTs 容易受到来自对抗样本的攻击。在人的视角中,对抗样本与干净样本几乎没有区别,但其包含可以导致错误预测的对抗噪声。此外,对抗样本的迁移性允许在可完全访问的模型(白盒模型)上生成对抗样本来攻击结构等信息未知的模型(黑盒模型)。
机器之心
2022/01/04
1.1K0
AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法
可学习的黑盒对抗攻击:SOTA的攻击成功率和查询效率
本文介绍NeurIPS 2020接收论文《Learning Black-Box Attackers with Transferable Priors and Query Feedback》。
AI科技评论
2020/12/18
3.1K0
可学习的黑盒对抗攻击:SOTA的攻击成功率和查询效率
人工智能的矛与盾--对抗学习
最近几年安全界关于对抗学习的研究如火如荼,对抗样本的生成技术发展迅速。使用不同的对抗攻击方法可以生成对抗样本,不同攻击方法的攻击效果也有所不同。 另外关于对抗样本攻击的防御方法,已经有不少学者提出了一些解决方案,不过防御效果上还有提升空间。下图是关于对抗学习经典的应用场景,攻击者利用对抗样本攻击方法对关于熊猫的图片进行微小的修改从而使深度学习图像识别模型失效,误以为图片中的是长臂猿。这种攻击手段已经在本文之前已经进行过讨论。
绿盟科技研究通讯
2020/01/02
1.7K0
提高对抗性迁移能力,通过基于神经元归属的攻击方法(CVPR 2022)
本篇文章分享 CVPR 2022 论文『Improving Adversarial Transferability via Neuron Attribution-Based Attacks』,通过基于神经元归属的攻击提高对抗性迁移能力。
CV君
2022/09/01
5380
提高对抗性迁移能力,通过基于神经元归属的攻击方法(CVPR 2022)
CVPR 2021 清华大学|基于模拟器的新型对抗攻击 Powered by meta-learning!
标题:Simulating Unknown Target Models for Query-Efficient Black-box Attacks
公众号-arXiv每日学术速递
2021/05/18
1K0
CVPR 2021 清华大学|基于模拟器的新型对抗攻击 Powered by meta-learning!
IJCAI 2021 | 腾讯和复旦联合出品:Adv-Makeup人脸黑盒攻击对抗算法
分享一篇来自 IJCAI 2021 的论文:Adv-Makeup: A New Imperceptible and Transferable Attack on Face Recognition,由腾讯和复旦大学联合出品:人脸黑盒攻击对抗算法:Adv-Makeup。
CV君
2021/06/08
1.9K1
IJCAI 2021 | 腾讯和复旦联合出品:Adv-Makeup人脸黑盒攻击对抗算法
对抗攻击之SMI-FGSM:北航提出用"空间动量"提高对抗迁移性
当前很多对抗攻击方法在白盒条件下都能达到非常高的攻击成功率,但在该条件下生成的对抗样本可迁移性较差。基于动量的攻击MI-FGSM 是提高对抗样本可迁移性的一种非常有效方法,它将动量项集成到迭代过程中,可以通过为每个像素添加梯度的时间相关性来稳定梯度的更新方向。
CV君
2022/04/18
1.2K0
对抗攻击之SMI-FGSM:北航提出用"空间动量"提高对抗迁移性
苏航:深度学习对抗安全理论与方法
本次报告介绍了深度学习安全性和可信性的关键问题,从对抗攻击、对抗防御和攻防平台三个方面介绍了目前的研究现状,同时带来了研究团队在这些关键问题上的最新研究成果,最后对发展安全可靠、鲁棒可理解的第三代人工智能进行了展望。
马上科普尚尚
2020/05/13
1.8K0
苏航:深度学习对抗安全理论与方法
首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
近年来,深度学习在一系列任务中(例如:图像识别、目标识别、语义分割、视频识别等)取得了巨大成功。因此,基于深度学习的智能模型正逐渐广泛地应用于安防监控、无人驾驶等行业中。但最近的研究表明,深度学习本身非常脆弱,容易受到来自对抗样本的攻击。对抗样本指的是由在干净样本上增加对抗扰动而生成可以使模型发生错误分类的样本。对抗样本的存在为深度学习的应用发展带来严重威胁,尤其是最近发现的对抗样本在不同模型间的可迁移性,使得针对智能模型的黑盒攻击成为可能。具体地,攻击者利用可完全访问的模型(又称白盒模型)生成对抗样本,来攻击可能部署于线上的只能获取模型输出结果的模型(又称黑盒模型)。此外,目前的相关研究主要集中在图像模型中,而对于视频模型的研究较少。因此,亟需开展针对视频模型中对抗样本迁移性的研究,以促进视频模型的安全发展。
机器之心
2021/12/22
5740
首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
顶刊TIP 2022!阿里提出:从分布视角出发理解和提升对抗样本的迁移性
阿里巴巴 AAIG 与浙江大学团队在对抗迁移攻击问题中,通过引入数据分布的视角出发,利用 score matching 对替代的判别式模型与数据分布进行对齐,从而在提到模型中引入更多的数据分布相关的信息,提升对抗样本的迁移能力。与现有最佳基于生成模型的攻击方法 TTP 成功率是 46.47%,而我们的方法可以达到 75.93% 的成功率,超过现有最佳方法 29.46%。
CV君
2022/11/28
9560
顶刊TIP 2022!阿里提出:从分布视角出发理解和提升对抗样本的迁移性
暴力的黑盒对抗样本攻击 -- ZOO
这次来介绍一篇CCS Workshop 2017的工作,"ZOO: Zeroth Order Optimization Based Black-box Attacks to Deep Neural Networks without Training Substitute Models"
Mezereon
2021/04/09
1.7K0
暴力的黑盒对抗样本攻击 -- ZOO
ODS:输出多样化采样,有效增强白盒和黑盒攻击的性能 | NeurIPS 2020
本文提出了一种新的采样策略——输出多样化采样,替代对抗攻击方法中常用的随机采样,使得目标模型的输出尽可能多样化,以此提高白盒攻击和黑盒攻击的有效性。实验表明,该种采样策略可以显著提升对抗攻击方法的性能。
红色石头
2022/01/20
6990
ODS:输出多样化采样,有效增强白盒和黑盒攻击的性能 | NeurIPS 2020
突破黑盒商业LVLMs对抗难题:局部编码语义细节,随机裁剪优化,提升对抗示例转移性与攻击成功率 !
对抗性攻击一直威胁着AI系统的鲁棒性,特别是在大规模视觉-语言模型(LVLMs)领域。这些模型在融合视觉与语言理解的任务上表现出色,例如图像字幕生成[36]、视觉问答[30, 33]和视觉复杂推理[25, 34]。除了开源解决方案的进步之外,诸如GPT-4o [1]、Claude-3.5 [3] 和 Gemini-2.0 [37]等高级黑盒商业多模态模型也被广泛采用。然而,它们的广泛应用也带来了关键的安全挑战,因为恶意行为者可能利用这些平台传播虚假信息或生成有害输出。要解决这些问题,需要在黑盒环境中进行全面的对抗性测试,在这种环境中,攻击者对模型的内部配置和训练数据知之甚少。
AIGC 先锋科技
2025/04/16
1740
突破黑盒商业LVLMs对抗难题:局部编码语义细节,随机裁剪优化,提升对抗示例转移性与攻击成功率 !
QEBA:基于类边界查询访问的黑盒攻击
今日分享一篇"老"论文,收录于CVPR2020『QEBA: Query-Efficient Boundary-Based Blackbox Attack』,是关于边界查询的黑盒攻击的研究。
CV君
2021/09/27
1.5K0
QEBA:基于类边界查询访问的黑盒攻击
【顶会论文分享】TEXTFOOLER文本对抗攻击
尽管自然语言处理(Natural Language Processing ,NLP)技术在文本分类、情感分析、机器翻译等任务上取得了显著进展,但文本对抗样本的出现为这一领域带来了新的挑战。经过攻击者精心设计的微小扰动,文本对抗样本能够使高准确率的模型出现预测错误,进而揭示了NLP模型的脆弱性。如图1所示,替换字符可以改变模型对句子情感倾向的判断。
绿盟科技研究通讯
2024/05/10
8120
【顶会论文分享】TEXTFOOLER文本对抗攻击
腾讯AI Lab参与提出EAD:基于弹性网络正则化的深度神经网络对抗样本攻击
选自arXiv 作者:Pin-Yu Chen 、Yash Sharma、Huan Zhang、Jinfeng Yi、Cho-Jui Hsieh 机器之心编译 腾讯 AI Lab 在 2018 年 AAAI 中入选论文 11 篇,其中一篇与 IBM Research、The Cooper Union 和加州大学戴维斯分校合作的论文入选口头报告(Oral)。这篇论文提出一种基于弹性网络正则化的攻击算法,该算法将对抗样本攻击 DNN 的过程形式化为弹性网络正则化的优化问题。此外,对基于 L1 失真攻击的评估为对抗
企鹅号小编
2018/02/02
7260
腾讯AI Lab参与提出EAD:基于弹性网络正则化的深度神经网络对抗样本攻击
文本对抗攻击基础、前沿及相关资源
深度学习的安全性问题已经逐渐被学术界、工业界所认识到并且重视,就文本领域而言,垃圾邮件检测、有害文本检测、恶意软件查杀等实用系统已经大规模部署了深度学习模型,安全性对于这些系统尤为重要。
AI科技评论
2020/09/14
1K0
文本对抗攻击基础、前沿及相关资源
产生和防御对抗样本的新方法 | 分享总结
对抗样本是一类被恶意设计来攻击机器学习模型的样本。它们与真实样本的区别几乎无法用肉眼分辨,但是却会导致模型进行错误的判断。本文就来大家普及一下对抗样本的基础知识,以及如何做好对抗样本的攻与防。 在近期 AI 研习社举办的线上公开课上,来自清华大学的在读博士生廖方舟分享了他们团队在 NIPS 2017 上一个对抗样本攻防大赛中提到的两个新方法,这两个方法在大赛中分别获得了攻击方和防守方的第一名。在此可看视频回放:http://www.mooc.ai/open/course/383 廖方舟,清华大学化学系学士
AI研习社
2018/03/16
1.5K0
产生和防御对抗样本的新方法 | 分享总结
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法
本文作者来自西安交通大学、南洋理工大学、新加坡科技管理局前沿研究中心。作者列表:郭淇,庞善民,加小俊,Liu Yang 和郭青。其中,第一作者郭淇是西安交通大学博士生。通讯作者西安交通大学庞善民副教授(主页:https://gr.xjtu.edu.cn/web/pangsm)和南洋理工大学的加小俊博士后研究员(主页:https://jiaxiaojunqaq.github.io)。论文已被计算机网络信息安全领域顶级期刊IEEE TIFS录用。
机器之心
2025/02/15
2060
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法
Hinton团队胶囊网络新进展:两种方法加持,精准检测和防御对抗性攻击
在本文中,我们提出了一种基于胶囊层(Capsule layer,Sabour et al., 2017; Qin et al., 2020)的网络和检测机制,它可以精确地检测到攻击,对于未检测到的攻击,它通常也可以迫使攻击者生成类似于目标类的图像(从而使它们被偏转)。我们的网络结构由两部分组成:对输入进行分类的胶囊分类网络,以及根据预测的胶囊(predicted capsule)的姿态参数(pose parameters)重建输入图像的重建网络。
机器之心
2020/04/02
7510
推荐阅读
AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法
1.1K0
可学习的黑盒对抗攻击:SOTA的攻击成功率和查询效率
3.1K0
人工智能的矛与盾--对抗学习
1.7K0
提高对抗性迁移能力,通过基于神经元归属的攻击方法(CVPR 2022)
5380
CVPR 2021 清华大学|基于模拟器的新型对抗攻击 Powered by meta-learning!
1K0
IJCAI 2021 | 腾讯和复旦联合出品:Adv-Makeup人脸黑盒攻击对抗算法
1.9K1
对抗攻击之SMI-FGSM:北航提出用"空间动量"提高对抗迁移性
1.2K0
苏航:深度学习对抗安全理论与方法
1.8K0
首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
5740
顶刊TIP 2022!阿里提出:从分布视角出发理解和提升对抗样本的迁移性
9560
暴力的黑盒对抗样本攻击 -- ZOO
1.7K0
ODS:输出多样化采样,有效增强白盒和黑盒攻击的性能 | NeurIPS 2020
6990
突破黑盒商业LVLMs对抗难题:局部编码语义细节,随机裁剪优化,提升对抗示例转移性与攻击成功率 !
1740
QEBA:基于类边界查询访问的黑盒攻击
1.5K0
【顶会论文分享】TEXTFOOLER文本对抗攻击
8120
腾讯AI Lab参与提出EAD:基于弹性网络正则化的深度神经网络对抗样本攻击
7260
文本对抗攻击基础、前沿及相关资源
1K0
产生和防御对抗样本的新方法 | 分享总结
1.5K0
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法
2060
Hinton团队胶囊网络新进展:两种方法加持,精准检测和防御对抗性攻击
7510
相关推荐
AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档