Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >顶刊TIP 2022!阿里提出:从分布视角出发理解和提升对抗样本的迁移性

顶刊TIP 2022!阿里提出:从分布视角出发理解和提升对抗样本的迁移性

作者头像
CV君
发布于 2022-11-28 10:22:32
发布于 2022-11-28 10:22:32
9640
举报

阿里巴巴 AAIG 与浙江大学团队在对抗迁移攻击问题中,通过引入数据分布的视角出发,利用 score matching 对替代的判别式模型与数据分布进行对齐,从而在提到模型中引入更多的数据分布相关的信息,提升对抗样本的迁移能力。与现有最佳基于生成模型的攻击方法 TTP 成功率是 46.47%,而我们的方法可以达到 75.93% 的成功率,超过现有最佳方法 29.46%。

我们的方法是目前有目标迁移性攻击效果最佳的方法。此外,我们也在谷歌识图上测试了我们迁移攻击算法的有效性。该工作“Towards Understanding and Boosting Adversarial Transferability from a Distribution Perspective” 目前已被TIP2022接收,本文将详细介绍该相应技术。

  • 作者:朱尧,陈岳峰,李小丹等
  • 论文地址:https://arxiv.org/abs/2210.04213
  • 开源地址:https://github.com/alibaba/easyrobust

01

背景

对抗样本近年来受到了越来越多深度学习研究者的重视。研究人员发现在输入样本上添加一个人眼难以察觉的微小扰动,就可以灾难性的改变神经网络的预测结果。这种被恶意修改过的输入样本被称为对抗样本。对抗样本具有迁移能力,即在源模型上产生的对抗样本,有概率可以攻击另一个模型架构、模型参数完全不同的目标深度模型。在实际测试中,目标模型的结构和参数往往是未知的,利用对抗样本的迁移能力,可以有效的验证模型的鲁棒性。

现有研究已经提出了很多方法来增强对抗迁移性,但是迁移性的原因依旧是未解之谜。

02

难点

  1. 无目标攻击对抗样本的迁移性在源模型和目标模型结构相似时效果尚佳,但是如果模型结构差异较大时效果下降明显,如从 CNN 迁移到 ViT。
  2. 有目标攻击场景下,使用迭代方法产生的对抗样本的迁移性非常低,目前效果最佳的方法是基于生成模型的方法,需要针对每一个目标类别训练生成模型。

03

现有假设

  • 模型的结构会影响迁移性: 不同模型结构比如有跳连的模型ResNet,DenseNet;没有跳连的模型VGG;基于Transformer的模型ViT等等产生的对抗样本在迁移性上存在差异。
  • 模型的准确性影响迁移性: 训练的更好的模型(准确性越高)可能具有更好的分类边界,从而产生更好的对抗样本。
  • 使用数据增广提升对抗样本的迁移性: 在模型训练中往往使用数据增广提升模型的泛化性,这一类方法考虑对输入数据进行增广提升对抗样本的迁移性。
  • 改进对抗样本生成算法提升迁移性:PGD是对抗攻击常用的方法,现有研究提出一些对PGD的改进方案来提升对抗样本的迁移性。

04

从分布视角理解迁移性

在我们的工作中,我们没有像过去的文章一样从源模型产生对抗样本的过程以及源模型的分类边界上思考对抗样本的迁移性的问题。我们考虑到在做图像识别时,模型架构是多种多样的,但是它们都有一个共同的点--训练数据集是服从相同分布的。深度学习中有一个典型的假设“独立同分布”,即验证集的数据与训练集的数据虽然是独立的,但是是服从相同的数据分布的。不同模型都期待能够将属于特定分布的图像分类为特定类别,比如将来自于“猫”类别的图像预测为“猫”。但是如果样本是一个分布外样本(out-of-distribution),深度模型往往难以给出准确的预测。

因此,我们提出应该从数据分布的视角来理解迁移性,如果无目标攻击能够使数据成为分布外样本,那么不同的模型都将难以识别该样本,这样的无目标攻击应该具有更强的迁移性;如果有目标攻击能够使数据成为目标分布内的样本,那么不同的模型都倾向于将该样本分类为目标类。

05

我们的方法

根据我们的分析,从分布的视角产生对抗样本应该会具有更强的迁移性,无目标对抗攻击可以表达为:

普通的对抗攻击旨在于最大化模型的分类损失,即最小化条件概率

。朗之万动力学(SGLD)给出了一种使用梯度改变样本所属数据分布的方法:

其中

表示真实数据分布

的梯度,从初识样本出发,沿着真实数据分布的梯度的方向优化样本,如果迭代次数t足够大,可以获得服从数据分布

的样本。如果我们能够获得真实数据分布的梯度,那么我们可以利用这个梯度改变样本所属的数据分布,从而获得具有高迁移性的对抗样本。

考虑到我们的难以获得准确的真实数据分布的梯度,在本文中我们提出最小化模型的梯度

与真实数据分布的梯度

之间的距离,从而利用模型的梯度近似数据分布的梯度,这样产生的对抗样本也就可以对数据所属的分布进行改动:

其中,第一项是仅仅与数据分布相关的,数据分布是固定的,因此这是一个常数;第二项是模型相关的不包含未知的数据分布的梯度,因此是容易计算的;第三项包含了模型的梯度,以及数据分布的梯度,我们使用分部积分的方法对其进行化简。最终可以得到这样的表达式:

我们对现有模型进行微调,最小化DCG。微调后,模型的梯度与数据分布的梯度之间距离相比普通模型更小,我们使用模型的梯度来近似数据分布的梯度,因此基于梯度的对抗攻击方法可以在微调后的模型上生成改变了数据分布信息的对抗样本。

直观上看,我们的方法产生的有目标攻击,可以使对抗样本具有目标类别数据分布相关的信息:

我们将一张“青蛙”的图像攻击到“玉米”类别,从左到右逐渐增加攻击强度,可见普通的PGD对抗攻击产生的对抗样本更像噪声,而我们的方法产生的对抗样本中具有了目标类别的特征,图像中出现了一些玉米形状,这意味着我们的方法确实可以改变图像所属的数据分布,这可能导致不同模型都将该样本分类为目标攻击的类别,提升有目标攻击迁移性。

我们的方法产生的无目标攻击可以获得与原始样本数据分布不同的样本,深度模型对于与训练集同分布的验证样本有良好的分类准确度,但是面对分布外样本可能束手无策,因此我们的方法可以大幅度提升无目标攻击的迁移性:

这幅图像中我们使用基于能量分数的分布外样本检测方法来判断样本的分布,横坐标是得分,纵坐标是百分百,得分小的样本被认为是分布外样本。可见我们的方法(DRA)产生的对抗样本与原始数据分布差异更大,因此会使得不同的目标模型都难以识别该样本,增强了对抗样本的无目标攻击迁移性。

06

实验结果

与现有方法相比我们的方案在无目标攻击和有目标攻击场景下都带来了大幅度的效果提升。

无目标攻击

我们的方法在对抗迁移性上相比现有方法在某些场景下具有40%以上的提升,从ResNet-50源模型产生对抗样本迁移到ViT模型上,现有效果最好的方法攻击成功率是18.82%,而我们的方法攻击成功率是58.46%,效果提升了39.64%。我们的方法是目前无目标迁移性攻击效果最佳的方法。

有目标攻击

有目标攻击相对于无目标攻击是一个较难的问题,现有的基于迭代的攻击方法在有目标攻击场景下成功率较低,TTP和CDA是基于生成模型的攻击方法,它们为每一个目标类别训练相应的模型来生成对抗样本。当从ResNet-50源模型产生对抗样本,攻击Inception V3目标模型时,现有最佳迭代攻击算法Simple成功率是15.50%,现有最佳基于生成模型的攻击方法TTP成功率是46.47%,而我们的方法可以达到75.93%的成功率,超过现有最佳方法29.46%。我们的方法是目前有目标迁移性攻击效果最佳的方法。

攻击谷歌识图

我们的方法可以成功的产生有目标攻击对抗样本欺骗谷歌识图等真实世界中的计算机视觉系统,比如下图中的仓鼠和狐狸,谷歌识图以很高的概率将它们误分为目标类别“玉米”。

07

总结

迁移对抗攻击可以从已知结构和参数的源模型上产生对抗样本来黑盒的攻击未知的目标模型,这对于验证模型的鲁棒性是一种高效的方案,有利于我们更好的理解模型和鼓励我们创建更安全的模型。目前,对抗攻击为什么具有迁移性还处在一个众说纷纭的阶段,与过去从模型的视角分析迁移性不同,我们从数据本身出发,从数据分布的视角给出了对抗样本迁移性的一种理解,根据我们的理解,我们提出了微调源模型来最小化模型的梯度与数据分布的梯度之间的距离,从而可以利用模型的梯度近似数据分布的梯度,这样基于梯度的攻击方法可以改变样本所属的数据分布,实验表明我们的方案是目前迁移性最佳的攻击方法,在某些场景下可以超过现有方法40%以上。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-11-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 我爱计算机视觉 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
对抗攻击之SMI-FGSM:北航提出用"空间动量"提高对抗迁移性
当前很多对抗攻击方法在白盒条件下都能达到非常高的攻击成功率,但在该条件下生成的对抗样本可迁移性较差。基于动量的攻击MI-FGSM 是提高对抗样本可迁移性的一种非常有效方法,它将动量项集成到迭代过程中,可以通过为每个像素添加梯度的时间相关性来稳定梯度的更新方向。
CV君
2022/04/18
1.2K0
对抗攻击之SMI-FGSM:北航提出用"空间动量"提高对抗迁移性
AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法
与卷积神经网络(CNN)相比,Vision transformers(ViTs)在一系列计算机视觉任务中表现出惊人的性能。然而,ViTs 容易受到来自对抗样本的攻击。在人的视角中,对抗样本与干净样本几乎没有区别,但其包含可以导致错误预测的对抗噪声。此外,对抗样本的迁移性允许在可完全访问的模型(白盒模型)上生成对抗样本来攻击结构等信息未知的模型(黑盒模型)。
机器之心
2022/01/04
1.1K0
AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法
腾讯AI Lab参与提出EAD:基于弹性网络正则化的深度神经网络对抗样本攻击
选自arXiv 作者:Pin-Yu Chen 、Yash Sharma、Huan Zhang、Jinfeng Yi、Cho-Jui Hsieh 机器之心编译 腾讯 AI Lab 在 2018 年 AAAI 中入选论文 11 篇,其中一篇与 IBM Research、The Cooper Union 和加州大学戴维斯分校合作的论文入选口头报告(Oral)。这篇论文提出一种基于弹性网络正则化的攻击算法,该算法将对抗样本攻击 DNN 的过程形式化为弹性网络正则化的优化问题。此外,对基于 L1 失真攻击的评估为对抗
企鹅号小编
2018/02/02
7310
腾讯AI Lab参与提出EAD:基于弹性网络正则化的深度神经网络对抗样本攻击
人工智能的矛与盾--对抗学习
最近几年安全界关于对抗学习的研究如火如荼,对抗样本的生成技术发展迅速。使用不同的对抗攻击方法可以生成对抗样本,不同攻击方法的攻击效果也有所不同。 另外关于对抗样本攻击的防御方法,已经有不少学者提出了一些解决方案,不过防御效果上还有提升空间。下图是关于对抗学习经典的应用场景,攻击者利用对抗样本攻击方法对关于熊猫的图片进行微小的修改从而使深度学习图像识别模型失效,误以为图片中的是长臂猿。这种攻击手段已经在本文之前已经进行过讨论。
绿盟科技研究通讯
2020/01/02
1.7K0
Goodfellow回谷歌后首篇GAN论文:可迁移性对抗样本空间
【新智元导读】昨天 Ian Goodfellow 和他在斯坦福大学以及宾夕法尼亚州立大学的合作者在 arXiv 上传了 Ian Goodfellow 回到谷歌后的首篇 GAN 论文《可迁移性对抗样本空间》,研究了对抗性攻击的原因,并进行了领域内首次量化研究。论文找到了迁移性的充分条件,也找到了对抗样本迁移性不满足的实例。朝向防御对抗性攻击迈出了第一步。 现在,卷积神经网络(CNN)识别图像的能力已经到了“出神入化”的地步,你可能知道在 ImageNet 竞赛中,神经网络对图像识别的准确率已经超过了人。但同时
新智元
2018/03/28
2K0
Goodfellow回谷歌后首篇GAN论文:可迁移性对抗样本空间
清华朱军团队包揽三项冠军 | NIPS 2017对抗样本攻防竞赛总结(附学习资料)
本次比赛总结由谷歌大脑、清华大学以及其它参与研究人员们联合撰写,为你介绍NIPS 2017 对抗样本攻防比赛的情况。 自 Ian Goodfellow 等研究者发现了可以让图像分类器给出异常结果的"对抗性样本"(adversarial sample)以来,关于对抗性样本的研究越来越多。NIPS 2017 上 Ian Goodfellow 也牵头组织了 Adversarial Attacks and Defences(对抗攻击防御)竞赛,供研究人员、开发人员们在实际的攻防比拼中加深对对抗性样本现象和相关技术
数据派THU
2018/06/12
1.2K0
突破黑盒商业LVLMs对抗难题:局部编码语义细节,随机裁剪优化,提升对抗示例转移性与攻击成功率 !
对抗性攻击一直威胁着AI系统的鲁棒性,特别是在大规模视觉-语言模型(LVLMs)领域。这些模型在融合视觉与语言理解的任务上表现出色,例如图像字幕生成[36]、视觉问答[30, 33]和视觉复杂推理[25, 34]。除了开源解决方案的进步之外,诸如GPT-4o [1]、Claude-3.5 [3] 和 Gemini-2.0 [37]等高级黑盒商业多模态模型也被广泛采用。然而,它们的广泛应用也带来了关键的安全挑战,因为恶意行为者可能利用这些平台传播虚假信息或生成有害输出。要解决这些问题,需要在黑盒环境中进行全面的对抗性测试,在这种环境中,攻击者对模型的内部配置和训练数据知之甚少。
AIGC 先锋科技
2025/04/16
1970
突破黑盒商业LVLMs对抗难题:局部编码语义细节,随机裁剪优化,提升对抗示例转移性与攻击成功率 !
CVPR 2021 Oral | 长尾分布下的对抗鲁棒性
AI 科技评论本文介绍一篇发表在 CVPR 2021 的一篇工作:《Adversarial Robustness under Long-Tailed Distribution》,并分享作者将长尾分布 (Long-Tailed Distribution) 这一条件引入对抗鲁棒性 (Adversarial Robustness) 任务中的一些理解。
AI科技评论
2021/07/27
7840
CVPR 2021 Oral | 长尾分布下的对抗鲁棒性
可学习的黑盒对抗攻击:SOTA的攻击成功率和查询效率
本文介绍NeurIPS 2020接收论文《Learning Black-Box Attackers with Transferable Priors and Query Feedback》。
AI科技评论
2020/12/18
3.2K0
可学习的黑盒对抗攻击:SOTA的攻击成功率和查询效率
黑盒攻击很难?元学习提高"黑盒对抗攻击"成功率
本文分享论文『Boosting Black-Box Adversarial Attacks with Meta Learning』,元学习提高黑盒对抗攻击。
CV君
2022/04/18
1.4K0
黑盒攻击很难?元学习提高"黑盒对抗攻击"成功率
对抗样本并非bug,它们只是特征罢了
对抗样本难道是模型中的 bug 吗?我们是不是可以通过对抗训练或其它方式完全解决这个问题?MIT 的研究者表示,对抗样本仅仅是一些特征,而且从监督学习角度来看,这些稳健或非稳健特征具备同等的重要性。
机器之心
2019/05/15
1.1K0
对抗样本并非bug,它们只是特征罢了
提高对抗性迁移能力,通过基于神经元归属的攻击方法(CVPR 2022)
本篇文章分享 CVPR 2022 论文『Improving Adversarial Transferability via Neuron Attribution-Based Attacks』,通过基于神经元归属的攻击提高对抗性迁移能力。
CV君
2022/09/01
5430
提高对抗性迁移能力,通过基于神经元归属的攻击方法(CVPR 2022)
Hinton团队胶囊网络新进展:两种方法加持,精准检测和防御对抗性攻击
在本文中,我们提出了一种基于胶囊层(Capsule layer,Sabour et al., 2017; Qin et al., 2020)的网络和检测机制,它可以精确地检测到攻击,对于未检测到的攻击,它通常也可以迫使攻击者生成类似于目标类的图像(从而使它们被偏转)。我们的网络结构由两部分组成:对输入进行分类的胶囊分类网络,以及根据预测的胶囊(predicted capsule)的姿态参数(pose parameters)重建输入图像的重建网络。
机器之心
2020/04/02
7530
“北大-鹏城-腾讯”新视角:从势能的角度探讨模型的可迁移性-ICCV2023开源
随着大规模数据集预训练模型的广泛应用,迁移学习已成为计算机视觉任务中的关键技术。但是,从大量的预训练模型库中为特定下游任务选择最优的预训练模型仍然是一个挑战。现有的方法主要依赖于编码的静态特征与任务标签之间的统计相关性来测量预训练模型的可迁移性,但它们忽略了微调过程中潜在的表示动力学的影响,导致结果不可靠,尤其是对于自监督模型。在本文中,我们从潜在能量的角度提出了一种新颖的方法——PED,来解决这些挑战。我们将迁移学习动力视为降低系统潜在能量的过程,并直接对影响微调动力学的相互作用力进行物理学建模。通过在物理驱动模型中捕获动态表示的运动来降低潜在能量,我们可以获得增强和更稳定的观测结果来估计可迁移性。在10个下游任务和12个自监督模型上的实验结果表明,我们的方法可以顺利集成到现有的优秀技术中,增强它们的性能,这揭示了它在模型选择任务中的有效性和发掘迁移学习机制的潜力。我们的代码将在https://github.com/lixiaotong97/PED上开源。
BBuf
2023/09/08
6590
“北大-鹏城-腾讯”新视角:从势能的角度探讨模型的可迁移性-ICCV2023开源
IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
近年来,深度学习在计算机视觉任务中获得了巨大成功,但与此同时,神经网络的安全问题逐渐引起重视,对抗样本热度持续不下,神经网络后门攻击也悄然兴起。本文选取了 IJCAI2019 的 3 篇论文,从目标检测对抗攻击、实时对抗攻击、神经网络后门攻击三个方面,为大家梳理最新进展。
机器之心
2019/08/13
1.2K0
IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法
本文作者来自西安交通大学、南洋理工大学、新加坡科技管理局前沿研究中心。作者列表:郭淇,庞善民,加小俊,Liu Yang 和郭青。其中,第一作者郭淇是西安交通大学博士生。通讯作者西安交通大学庞善民副教授(主页:https://gr.xjtu.edu.cn/web/pangsm)和南洋理工大学的加小俊博士后研究员(主页:https://jiaxiaojunqaq.github.io)。论文已被计算机网络信息安全领域顶级期刊IEEE TIFS录用。
机器之心
2025/02/15
2440
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法
专访 | 对抗样本攻防战,清华大学TSAIL团队再获CAAD攻防赛第一
同样在去年,该团队在 NIPS 2017 AI 对抗性攻防竞赛的三项比赛任务中(有/无特定目标攻击;攻击检测),全部获得冠军,战胜了包括斯坦福、约翰霍普金斯大学等世界著名高校在内的 100 多支代表队,在人工智能模型的鲁棒性和安全性应用方面迈出了重要一步。
机器之心
2018/09/20
1.2K0
专访 | 对抗样本攻防战,清华大学TSAIL团队再获CAAD攻防赛第一
首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
近年来,深度学习在一系列任务中(例如:图像识别、目标识别、语义分割、视频识别等)取得了巨大成功。因此,基于深度学习的智能模型正逐渐广泛地应用于安防监控、无人驾驶等行业中。但最近的研究表明,深度学习本身非常脆弱,容易受到来自对抗样本的攻击。对抗样本指的是由在干净样本上增加对抗扰动而生成可以使模型发生错误分类的样本。对抗样本的存在为深度学习的应用发展带来严重威胁,尤其是最近发现的对抗样本在不同模型间的可迁移性,使得针对智能模型的黑盒攻击成为可能。具体地,攻击者利用可完全访问的模型(又称白盒模型)生成对抗样本,来攻击可能部署于线上的只能获取模型输出结果的模型(又称黑盒模型)。此外,目前的相关研究主要集中在图像模型中,而对于视频模型的研究较少。因此,亟需开展针对视频模型中对抗样本迁移性的研究,以促进视频模型的安全发展。
机器之心
2021/12/22
5790
首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
ICLR 2020 | 分类器其实是基于能量的模型?判别式分类器设计新思路
生成模型已经得到了数十年的研究,因为人们相信生成模型对很多下游任务有利,比如半监督学习、缺失数据处理和不确定性校准。然而,对深度生成模型的大多数近期研究都忽视了这些问题,而将重心放在了定性样本质量以及在留存验证集上的对数似然上。
机器之心
2020/01/22
4900
Agent 安全性增强:Python 实现对抗攻击下的鲁棒性优化
嘿,各位技术探险家们!欢迎来到今天超级有趣的技术之旅。在这个数字时代,人工智能和各种智能体(Agent)就像我们生活中的超级助手,从帮我们推荐好看的电影,到管理复杂的工业流程,它们无处不在。但是,你知道吗?这些聪明的 Agent 也面临着一些 “邪恶势力” 的威胁,那就是对抗攻击!这就好比超级英雄在拯救世界的路上,突然遇到了专门使坏的反派,这些对抗攻击会试图让我们的 Agent 做出错误的决策,甚至完全失控。今天,咱们就一起来探索如何用 Python 这个超级工具,给我们的 Agent 穿上坚固的 “防弹衣”,增强它在对抗攻击下的鲁棒性。这不仅能让我们的智能体更加安全可靠,说不定还能为你的技术技能库增添不少厉害的 “装备” 呢!让我们开始这场充满挑战与惊喜的冒险吧!
小白的大数据之旅
2025/03/21
1150
Agent 安全性增强:Python 实现对抗攻击下的鲁棒性优化
推荐阅读
对抗攻击之SMI-FGSM:北航提出用"空间动量"提高对抗迁移性
1.2K0
AAAI 2022 | 无注意力+PatchOut,复旦大学提出面向视觉transformer的迁移攻击方法
1.1K0
腾讯AI Lab参与提出EAD:基于弹性网络正则化的深度神经网络对抗样本攻击
7310
人工智能的矛与盾--对抗学习
1.7K0
Goodfellow回谷歌后首篇GAN论文:可迁移性对抗样本空间
2K0
清华朱军团队包揽三项冠军 | NIPS 2017对抗样本攻防竞赛总结(附学习资料)
1.2K0
突破黑盒商业LVLMs对抗难题:局部编码语义细节,随机裁剪优化,提升对抗示例转移性与攻击成功率 !
1970
CVPR 2021 Oral | 长尾分布下的对抗鲁棒性
7840
可学习的黑盒对抗攻击:SOTA的攻击成功率和查询效率
3.2K0
黑盒攻击很难?元学习提高"黑盒对抗攻击"成功率
1.4K0
对抗样本并非bug,它们只是特征罢了
1.1K0
提高对抗性迁移能力,通过基于神经元归属的攻击方法(CVPR 2022)
5430
Hinton团队胶囊网络新进展:两种方法加持,精准检测和防御对抗性攻击
7530
“北大-鹏城-腾讯”新视角:从势能的角度探讨模型的可迁移性-ICCV2023开源
6590
IJCAI 2019 提前看 | 神经网络后门攻击、对抗攻击
1.2K0
视觉语言模型易受攻击?西安交大等提出基于扩散模型的对抗样本生成新方法
2440
专访 | 对抗样本攻防战,清华大学TSAIL团队再获CAAD攻防赛第一
1.2K0
首个基于时序平移的视频迁移攻击算法,复旦大学研究入选AAAI 2022
5790
ICLR 2020 | 分类器其实是基于能量的模型?判别式分类器设计新思路
4900
Agent 安全性增强:Python 实现对抗攻击下的鲁棒性优化
1150
相关推荐
对抗攻击之SMI-FGSM:北航提出用"空间动量"提高对抗迁移性
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档