前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >苏涛:对抗样本技术在互联网安全领域的应用

苏涛:对抗样本技术在互联网安全领域的应用

原创
作者头像
DataFunTalk
发布于 2022-06-09 04:13:37
发布于 2022-06-09 04:13:37
1K0
举报
文章被收录于专栏:DataFunTalkDataFunTalk

导读:验证码作为网络安全的第一道屏障,其重要程度不言而喻。当前,卷积神经网络的高速发展使得许多验证码的安全性大大降低,一些新型验证码甚至选择牺牲可用性从而保证安全性。针对对抗样本技术的研究,给验证码领域带来了新的契机,并已应用于验证码反识别当中,为这场旷日持久攻防对抗注入了新的活力。

分享内容包括三大方面:

  • 对抗样本介绍
  • 极验对抗样本技术探索与应用
  • 后续的工作与思考

--

01 对抗样本介绍

1. 什么是对抗样本

对抗样本 ( Adversarial Examples ) 的概念最早是 Christian Szegedy(克里斯蒂安·塞格迪)在 ICLR2014 (国际学习表征会议)上提出来的,即在数据集中通过故意添加细微的非随机的干扰所形成输入样本,受干扰之后的输入导致模型以高置信度给出了一个错误的输出。

如上图(左)原始图像以57%的置信度判断为“熊猫”,但是加入了微小的干扰之后,在人眼完全看不出差别的情况下,模型却以99%的置信度输出“长臂猿”。

当然,对抗样本不仅仅会出现在图片上,语音、文本上也会出现对抗样本,一段语音上加入微不可察的背景音,可以让语音识别模型输出错误的语音内容;在一段文本上使用近义词替换,也可以构造出对抗样本,误导语言模型。

那么为什么深度神经网络会出现对抗样本呢?

目前获得普遍认可的15年古德菲洛的观点,是深度神经网络的高维线性性导致了对抗样本的出现。

直观的理解,在进行一个高维度的线性运算时,每个维度都做一些微小的改动,会使输出结果发生巨大的变化。如上图,原始的输入是x,线性运算的权重是w,此时将样本分类到类别1的概率是5%,但是我们将输入的每一个维度都改变0.5,此时将样本分类到类别1的概率就变成了88%。

以上是对抗样本的一些简单的定义和目前比较被广泛认可的原因。

2. 为什么需要对抗样本

自从2012年AlexNet诞生以来,深度神经网络迎来了一段爆发式发展,并且广泛地应用于自动驾驶、医疗、金融、安防等领域。可以说深度神经网络模型已经深入我们生活的方方面面。对抗样本对这些模型的威胁是一个客观存在的事实,如果将STOP交通指示牌上加上一些微小的扰动,就会被检测模型识别为减速。行人穿上带有训练好的马赛克图案的衣服,就能在智能监控模型的视线中“隐身”。

所以,我们大力研究对抗样本技术,一方面是利用对抗样本探索深度神经网络的安全性,另一个方面利用对抗样本防御AI滥用的情况,如自动化验证码的识别,人脸识别模型的滥用,自动化鱼叉式的钓鱼攻击。

3. 对抗样本发展史和研究态势

Szegedy在2014年的表征学习国际会议上提出对抗样本的概念,他认为这是高维非线性导致的,并且提出了基于优化方法的L-BFGS方法。第二年Goodfellow等人,证明了对抗样本的出现是高维线性的结果,并提出了基于梯度的快速梯度符号法。之后,各种以FGSM为基础的对抗样本生成方法纷纷出现,其中比较有代表性的是I_FGSM,它在FGSM基础上进行多次迭代。

在L-BFGS基础上提出的C&W,这个奇怪的名字是两位作者名字的首字母 。

2018年肖超伟提出的advGAN,输入原始clean图片,使用生成对抗网络来生成对抗图片。

随后各种基于梯度迭代的攻击方法,基于优化的攻击方法和基于GAN的方法逐渐丰富起来。并且,对抗样本在计算机视觉、nlp、语音识别等各个领域的应用也逐渐被挖掘出来。

在dblp搜索adversarial example可以发现,从14年以来,对抗样本相关的论文也日益增长,对抗样本俨然成为了一大热门的研究领域。

--

02 极验对抗样本技术探索与应用

上面我们已经对对抗样本技术有了一个些初步的了解,下面我们来介绍一下我们极验在对抗样本技术上的探索与对抗样本技术在验证码上的应用。

1. 验证码的破解方法

极验从2012年就开发了拼图验证码,随后又上线了九宫格验证码和文字点选验证码。我们也研究了各种市面上的验证码的破解方法。

图片中分别是极验的九宫格验证码和文字点选验证码。

对于九宫格验证码,我们的破解方式和破解流程如下:从验证码上抠出上面的提示词,进入CRNN网络,输出这个提示词的内容。然后分别抠出9个小图片,进入CNN,预测出每个图片的类别。结合给出的提示词的内容和每个小图片的类别,得到最后的答案。

对于文字点选验证码的破解,同样是抠出提示词,进入到CRNN。但是对于文字位置的识别,我们需要用到一个目标检测的模型来检测出文字的位置,然后再根据位置将图片中的每个字抠出来,之后的流程与九宫格验证码的破解方式相同。

洞悉了主流的九宫格验证码和文字点选验证码的破解方式,我们就可以针对模型识别的每一个环节来生成对抗样本。例如针对提示词的对抗,针对图片分类的对抗,针对目标检测定位文字位置的对抗。

2. 几何感知对抗样本生成框架

  • 黑点表示clean样本
  • 两条虚线f,h分别是训练模型和验证模型,实线g测试模型

整个框架做的事情就是,迭代的在模型f上运行attack算法,直到得到的adv image在验证模型h上的输出正确类别的概率小于某一个阈值,并且在迭代的过程中逐步放开对抗干扰的L-p范数的限制。

为什么要把模型分成训练模型、验证模型和测试模型?主要是为了提升对抗样本的转移率,也就是说,在模型A上训练得到的对抗样本,在模型B上也能有很好的效果。这方面可以类比为提升一个模型在没有见过的数据集上的泛化性。

比如,黄色菱形表示f的最优对抗样本,如果不用验证模型h做一下约束,只利用训练模型f生成对抗样本,那么很可能迭代到这个位置就停止了,这样对抗样本在训练模型f上,过拟合了。

至于为什么要逐步放开对抗干扰的约束限制,主要是为了保证在达到对抗效果的情况下,能够使对抗图片相对于原始图片,看起来差不多。

比如,对于一张图片,先设定干扰的约束值为6,如果更新几次后就能够达到攻击的效果,那么迭代停止;如果多次更新仍然不能达到攻击效果,那么再增大约束值到10,继续更新。

上图中最右边的样本,经过2次增大约束值,就达到了攻击的效果,最左边的样本,经过了4次,才达到效果。

3. 具体的攻击方法

内部的攻击方法比较简单,用的是FGSM和它的一些增加了技巧的变体,主要是为了提升对抗样本的对抗性和转移力。

FGSM,是最速梯度符号法,算法的思想很简单:

训练模型时增大loss函数,需要计算loss函数对干扰噪声的梯度,此时我们在梯度的正方向上更新参数,就能够使loss函数增大。

  • FGSM只进行一次参数的更新,I-FGSM迭代多次。
  • MI-FGSM引入动量m,保留短期梯度的历史信息,提升稳定性。
  • DI-FGSM以一定的概率p,对输入进行多样化处理,可以理解成一个小的data augmentaion。
  • TI-FGSM利用一个事先定义好的kernel,对扰动参数的梯度进行卷积平滑,同样是为了提升对抗转移率。

以上就是我们的整个架构内部攻击的一些方法。

4. 对抗样本初步效果

这里我们利用在imagenet预训练的参数,微调出10个识别九宫格验证码的模型,这10个模型有不同的结构——有vision transformer、resnet、inception作为基础block的深度神经网络。这些模型在干净样本上的分类准确度均达到了98%以上。

以 model7作为攻击目标,model1作为训练模型,model0作为验证模型,允许的最大干扰像素值为64(这个参数会影响生成的对抗样本图片的质量),并且对抗样本在验证模型上对正确类别上的置信度小于0.01。

实验结论 :

如上图(左上)条形图是各个模型分别在干净样本和在对抗样本上的分类准确度,从实验的结果来看,仅仅在单个模型上训练的对抗干扰,就能将其他没见过的模型的分类准确度下降到20%以下。

如上图(右)热图,反应每个类别、各个模型在对抗样本上的分类准确率。对抗样本在各个类别的图片上对抗效果都比较理想。

如上图(左下)最大扰动像素值的分布图,大部分的对抗图片的最大扰动像素值是64,可以预见这批对抗图片与原始图片的差异较大。

如图,上图是对抗图片生成的验证码,下图是干净图片生成的验证码;可以看出对抗图片较为模糊,与原图差距非常大,部分图片仅仅只能通过物品的轮廓勉强分辨图片的内容(如椅子、水壶、斧头等),有的图片甚至完全无法辨认(如右一的火箭)。

这是我们初步实验的结果。模型的对抗性和可用性可能需要经过一系列的权衡,最终达到一个均衡的效果。

5. 权衡图片质量与对抗效果

设置最大干扰像素值为64,验证模型置信度阈值0.01时,训练得到的对抗样本图片干扰太过严重,使得图片雪花点比较多、比较模糊,图片可用性小。

逐渐减少最大干扰像素,增大验证模型置信度阈值,同时将训练模型和验证模型配置为多个模型的Ensemble,这样使对抗样本在不损失太多对抗性的情况下,提升图片质量。

以 model7作为攻击目标,model 01239作为训练模型,model 489作为验证模型,允许的最大干扰像素值为20,并且对抗样本在验证模型上对正确类别上的置信度小于0.05。

对抗图片在目标模型上的分类准确度在30%左右,同时在其他没见过的模型上的准确度也在30%-40%,对抗效果与之前的训练设置相比存在下降。

但是,分析最大干扰像素的分布,大部分图片在像素阈值增大到10之后就达到对抗效果,并停止了迭代。此时对抗图片的图片质量能够保证可用性。

图片中虽然还是存在少量比较模糊的图片,比如右上角听诊器,但是大部分图片跟原始图片相差不是很大。在真正使用的时候,我们可以用评估图片质量的算法将这些比较模糊的图片剔除掉。

6. 语序识别的对抗初探

除了对九宫格验证码的破解模型生成了防御性质的对抗样本,在针对语序识别的crnn和针对文字位置识别的目标检测模型的对抗做了初步的探索。

同样是用I_FGSM攻击方法,迭代使crnn模型的ctc loss不断增大,生成的对抗样本在训练crnn模型上输出错误的结果,如“炸南瓜条” 被识别为“艺南蜜贵”,“燕喜堂”被识别为“煎元宝”。但是肉眼看上去,对抗样本与原始的干净样本差别不大。

7. 目标识别的对抗

目标检测对抗样本,我们尝试了针对yolov3的攻击,初始化干扰,加到原始图片上进入yolov3检测模型,迭代更新干扰,最小化真实文字位置的预测置信度。

攻击的结果,如上图yolov3对文字点选验证码中的文字无法完全定位,而且肉眼也几乎无法分辨对抗样本与干净样本的差别。

8. 九宫格对抗样本的工程化

我们先爬取各种需要类别的图,然后更新模型库的每一个模型,进入刚才提到的几何感知的框架,训练得到对抗样本的图片,再经过一轮图片的筛选,就得到一个静态资源库。

而生成九宫格验证码的时候,从静态资源库里提取图片,生成九宫格验证码的图片,再生成干净的提示词,之后利用CRNN的攻击,生成对抗的提示词,组合得到最终的九宫格验证码的对抗样本。

--

03 后续的工作与思考

以上是我们目前做的关于对抗样本在验证码领域应用的一些工作和探索,对后续的工作我们也有一些规划和思考。

1. 基于GAN的生成技术AdvGAN

之前我们使用FGSM这个比较简单的方法来生成对抗样本,生成的过程和模型训练的过程是没有办法分开的,这样没有办法把模型的框架完整移植到针对目标检测和针对提示词的攻击上。我们想到换一个框架,用基于GAN的生成技术,比如AdvGAN。

基于GAN的对抗样本生成方式,好处是直接在G模型训练的过程中,将对抗干扰的特征保存在G模型的参数中,实现模型的训练和对抗样本生成的过程解耦。对抗样本的生成过程,不再需要迭代或者优化,提升生成的效率,也减小了部署的成本。

今天的分享就到这里,谢谢大家。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
浅谈深度学习中的对抗样本及其生成方法
深度学习模型被广泛应用到各种领域,像是图像分类,自然语言处理,自动驾驶等。以ResNet,VGG为代表的一系列深度网络在这些领域上都取得了不错的效果,甚至超过人类的水平。然而,Szegedy等人在2014年的工作(Intriguing properties of neural networks)揭示了深度网络的脆弱性(vulnerability),即在输入上做一些微小的扰动(perturbation)就可以令一个训练好的模型输出错误的结果,以下面这张经典的熊猫图为例:
Mezereon
2020/12/29
1.9K0
FGSM对抗攻击算法实现
掌握利用快速梯度符号攻击(FGSM)对上一个实验的深度学习卷积神经网络CNN手写数字识别模型进行对抗攻击,愚弄MNIST分类器。
不去幼儿园
2024/12/03
4230
FGSM对抗攻击算法实现
模型安全攻防战:对抗样本生成与防御的技术军备竞赛
在 AI 这个热闹非凡的江湖里,模型就如同大侠一般,凭借超强的能力,在图像识别、自然语言处理等各个领域大显身手。可你知道吗?在这看似平静的江湖背后,一场惊心动魄的攻防大战正在悄然上演,这就是模型安全攻防战!今天,咱们就一头扎进这场刺激的技术军备竞赛,看看对抗样本生成与防御的那些门道!
小白的大数据之旅
2025/04/05
1910
模型安全攻防战:对抗样本生成与防御的技术军备竞赛
学界 | 综述论文:对抗攻击的12种攻击方法和15种防御方法
选自arXiv 作者:Naveed Akhtar等 机器之心编译 参与:许迪、刘晓坤 这篇文章首次展示了在对抗攻击领域的综合考察。本文是为了比机器视觉更广泛的社区而写的,假设了读者只有基本的深度学习和图像处理知识。不管怎样,这里也为感兴趣的读者讨论了有重要贡献的技术细节。机器之心重点摘要了第 3 节的攻击方法(12 种)和第 6 节的防御方法(15 种),详情请参考原文。 尽管深度学习在很多计算机视觉领域的任务上表现出色,Szegedy et al. [22] 第一次发现了深度神经网络在图像分类领域存在有意
机器之心
2018/05/10
1.7K0
独家解读 | 基于优化的对抗攻击:CW攻击的原理详解与代码解读
论文标题:Towards Evaluating the Robustness of Neural Networks
马上科普尚尚
2020/08/21
7.7K0
独家解读 | 基于优化的对抗攻击:CW攻击的原理详解与代码解读
[当人工智能遇上安全] 1.人工智能真的安全吗?浙大团队分享AI对抗样本技术
《当人工智能遇上安全》系列博客将详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、入侵检测、对抗样本等等。只想更好地帮助初学者,更加成体系的分享新知识。该系列文章会更加聚焦,更加学术,更加深入,也是作者的慢慢成长史。换专业确实挺难的,系统安全也是块硬骨头,但我也试试,看看自己未来四年究竟能将它学到什么程度,漫漫长征路,偏向虎山行。享受过程,一起加油~
Eastmount
2021/12/03
1.6K0
[当人工智能遇上安全] 1.人工智能真的安全吗?浙大团队分享AI对抗样本技术
Agent 安全性增强:Python 实现对抗攻击下的鲁棒性优化
嘿,各位技术探险家们!欢迎来到今天超级有趣的技术之旅。在这个数字时代,人工智能和各种智能体(Agent)就像我们生活中的超级助手,从帮我们推荐好看的电影,到管理复杂的工业流程,它们无处不在。但是,你知道吗?这些聪明的 Agent 也面临着一些 “邪恶势力” 的威胁,那就是对抗攻击!这就好比超级英雄在拯救世界的路上,突然遇到了专门使坏的反派,这些对抗攻击会试图让我们的 Agent 做出错误的决策,甚至完全失控。今天,咱们就一起来探索如何用 Python 这个超级工具,给我们的 Agent 穿上坚固的 “防弹衣”,增强它在对抗攻击下的鲁棒性。这不仅能让我们的智能体更加安全可靠,说不定还能为你的技术技能库增添不少厉害的 “装备” 呢!让我们开始这场充满挑战与惊喜的冒险吧!
小白的大数据之旅
2025/03/21
1050
Agent 安全性增强:Python 实现对抗攻击下的鲁棒性优化
清华朱军团队包揽三项冠军 | NIPS 2017对抗样本攻防竞赛总结(附学习资料)
本次比赛总结由谷歌大脑、清华大学以及其它参与研究人员们联合撰写,为你介绍NIPS 2017 对抗样本攻防比赛的情况。 自 Ian Goodfellow 等研究者发现了可以让图像分类器给出异常结果的"对抗性样本"(adversarial sample)以来,关于对抗性样本的研究越来越多。NIPS 2017 上 Ian Goodfellow 也牵头组织了 Adversarial Attacks and Defences(对抗攻击防御)竞赛,供研究人员、开发人员们在实际的攻防比拼中加深对对抗性样本现象和相关技术
数据派THU
2018/06/12
1.2K0
AI 技术讲座精选:OpenAI 最新成果——利用对抗样本攻击机器学习
对抗样本是指攻击者故意设计以导致机器学习模型出错的输入样本;他们对机器来说就像是视觉幻觉一样。在本篇博文中,我们将向您展示对抗样本在不同介质中的运作原理,也将讨论为何系统难以防御它们。 在 OpenAI,我们认为对抗样本是研究安全性的一个好方面因为它代表着人工智能安全性上一个能在短期内得以解决的具体问题,由于解决对抗样本是如此之难,需要严肃认真的研究工作。(尽管为了达到我们建立安全、广泛分布的人工智能的目标,我们还需要研究机器学习安全性的许多方面。) 为了弄清楚对抗样本的真实面目,请思索一下《解释并驾驭对
AI科技大本营
2018/04/26
7540
AI 技术讲座精选:OpenAI 最新成果——利用对抗样本攻击机器学习
深入浅出对抗学习:概念、攻击、防御与代码实践
近年来,深度学习在图像识别、自然语言处理等领域取得了巨大成功。然而,研究表明,这些看似强大的模型却异常脆弱,容易受到**对抗样本(Adversarial Examples)**的攻击。对抗学习(Adversarial Learning)应运而生,它研究如何生成对抗样本以揭示模型弱点,以及如何构建更鲁棒的模型来抵御这些攻击。
Undoom
2025/05/28
2450
用Python机器学习搞定验证码
写爬虫有一个绕不过去的问题就是验证码,现在验证码分类大概有4种: 图像类 滑动类 点击类 语音类 今天先来看看图像类,这类验证码大多是数字、字母的组合,国内也有使用汉字的。在这个基础上增加噪点、干扰线、变形、重叠、不同字体颜色等方法来增加识别难度。 相应的,验证码识别大体可以分为下面几个步骤: 灰度处理 增加对比度(可选) 二值化 降噪 倾斜校正分割字符 建立训练库 识别 由于是实验性质的,文中用到的验证码均为程序生成而不是批量下载真实的网站验证码,这样做的好处就是可以有大量的知道明确结果的数据集。 当
小小科
2018/05/02
1.2K0
用Python机器学习搞定验证码
对抗样本再下一城,攻陷目标检测!自动驾驶或受攻击?UIUC学者构建欺骗检测器的对抗样本!
【导读】近日,针对深度学习系统的对抗样本攻击问题,来自伊利诺伊大学香槟分校(UIUC)的学者在 arXiv 上发表论文提出对于神经网络图像目标检测(Object Detection, Faster RCNN, YOLO.)的对抗样本生成方法。这篇文章提出的构建对抗样本的方法可以在数字图像上欺骗Faster RCNN,这些不经改变的对抗样本也可以直接欺骗YOLO9000,这表明了本文方法可以产生跨模型转移的对抗样本。同时,本文产生的对抗样本可以直接放在物理世界中,在适当的情况下它们仍然可以欺骗检测器。这个工作
WZEARW
2018/04/11
3.4K0
对抗样本再下一城,攻陷目标检测!自动驾驶或受攻击?UIUC学者构建欺骗检测器的对抗样本!
如何用 Caffe 生成对抗样本?这篇文章告诉你一个更高效的算法
Fast Gradient Sign方法 先回顾一下《杂谈CNN:如何通过优化求解输入图像》中通过加噪音生成对抗样本的方法,出自Christian Szegedy的论文《Intriguing prop
AI研习社
2018/03/19
9330
如何用 Caffe 生成对抗样本?这篇文章告诉你一个更高效的算法
CanSecWest 2019 | 如何用AI“欺骗”AI?
导语丨3月21日,世界顶级信息安全峰会CanSecWest 2019在加拿大温哥华召开,吸引了Google、Microsoft、Intel、腾讯、阿里等世界顶尖公司参会。来自腾讯安全平台部的AI安全研究员唐梦云受邀参会,并发表了名为《Adversarial Examples: Using AI to Cheat AI》的主题演讲,分享了团队在AI安全攻防的一些思考。
腾讯技术工程官方号
2019/05/16
1.8K0
CanSecWest 2019 | 如何用AI“欺骗”AI?
担心自己照片被Deepfake利用?试试波士顿大学这项新研究
近日,来自波士顿大学的研究者在一篇论文中介绍了 deepfake 新研究,看论文标题与效果,似乎只要输入我们的图片,deepfake 换脸模型就不能再拿我们的图片作为素材制作小视频。
机器之心
2020/03/25
4370
你真的懂对抗样本吗?一文重新思考对抗样本背后的含义
对抗样本是各种机器学习系统需要克服的一大障碍。对抗样本的存在表明模型倾向于依赖不可靠的特征来最大化性能,如果特征受到干扰,那么将造成模型误分类,可能导致灾难性的后果。对抗样本的非正式定义:以人类不可感知的方式对输入进行修改,使得修改后的输入能够被机器学习系统误分类,尽管原始输入是被正确分类的。这一修改后的输入即被称为对抗样本。下图阐明了这一概念:
机器之心
2019/09/17
1.1K0
你真的懂对抗样本吗?一文重新思考对抗样本背后的含义
【人脸识别终结者】多伦多大学反人脸识别,身份欺骗成功率达99.5%
新智元报道 来源:eurekalert.org 编辑:肖琴 【新智元导读】多伦多大学研究人员设计新算法,通过动态地干扰人脸识别工具来保护用户的隐私。结果表明,他们的系统可以将原本可检测到的人脸比例
新智元
2018/06/22
1.4K0
【顶刊论文分享】DeepSec:深度学习模型的安全性分析平台
在对抗攻击场景下,攻击者通过对合法输入的微扰生成对抗样本(Adversarial Example, AE),并试图使用对抗样本使目标深度学习(DL)模型误分类。由于DL模型在对抗样本的攻击下较为脆弱,因此限制了深度学习应用于具有较高安全性要求的领域,如自动驾驶、人脸识别、恶意软件检测等。防守方通常希望增强模型对对抗样本的防御能力,同时又能最大限度地保证模型的分类性能。虽然学术界和工业界对对抗样本的研究逐渐深入,攻击和防御手段在不断更新,但是仍很难说明哪些攻击样本隐蔽性或可转移性更高,或者哪种防御方法更加有效通用。
绿盟科技研究通讯
2023/02/22
1.4K0
【顶刊论文分享】DeepSec:深度学习模型的安全性分析平台
深度 | 脆弱的神经网络:UC Berkeley详解对抗样本生成机制
选自ML Blog of Berkeley 作者:Daniel Geng、Rishi Veerapaneni 机器之心编译 参与:陈韵竹、刘晓坤、李泽南 用于「欺骗」神经网络的对抗样本(adversarial example)是近期计算机视觉,以及机器学习领域的热门研究方向。只有了解对抗样本,我们才能找到构建稳固机器学习算法的思路。本文中,UC Berkeley 的研究者们展示了两种对抗样本的制作方法,并对其背后的原理进行了解读。 通过神经网络进行暗杀——听起来很疯狂吧?也许有一天,这真的可能上演,不过方式
机器之心
2018/05/10
1.3K0
用100元的支票骗到100万:看看对抗性攻击是怎么为非作歹的
作者:Roman Trusov 编译:元元、桑桑、徐凌霄、钱天培、高宁、余志文 Google brain最近的研究表明,任何机器学习的分类器都可以被误导,然后给出错误的预测。甚至,只需要利用一些小技巧,你就可以让分类器输出几乎任何你想要的结果。 机器学习可能会被“误导”的这一现象,正变得越发令人担忧。考虑到越来越多的系统正在使用AI技术,而且很多系统对保障我们舒适而安全的生活至关重要,比如说,银行、监控系统、自动取款机(ATM)、笔记本电脑上的人脸识别系统,以及研发中的自动驾驶汽车。关于人工智能的安全问题,
大数据文摘
2018/05/24
4580
推荐阅读
浅谈深度学习中的对抗样本及其生成方法
1.9K0
FGSM对抗攻击算法实现
4230
模型安全攻防战:对抗样本生成与防御的技术军备竞赛
1910
学界 | 综述论文:对抗攻击的12种攻击方法和15种防御方法
1.7K0
独家解读 | 基于优化的对抗攻击:CW攻击的原理详解与代码解读
7.7K0
[当人工智能遇上安全] 1.人工智能真的安全吗?浙大团队分享AI对抗样本技术
1.6K0
Agent 安全性增强:Python 实现对抗攻击下的鲁棒性优化
1050
清华朱军团队包揽三项冠军 | NIPS 2017对抗样本攻防竞赛总结(附学习资料)
1.2K0
AI 技术讲座精选:OpenAI 最新成果——利用对抗样本攻击机器学习
7540
深入浅出对抗学习:概念、攻击、防御与代码实践
2450
用Python机器学习搞定验证码
1.2K0
对抗样本再下一城,攻陷目标检测!自动驾驶或受攻击?UIUC学者构建欺骗检测器的对抗样本!
3.4K0
如何用 Caffe 生成对抗样本?这篇文章告诉你一个更高效的算法
9330
CanSecWest 2019 | 如何用AI“欺骗”AI?
1.8K0
担心自己照片被Deepfake利用?试试波士顿大学这项新研究
4370
你真的懂对抗样本吗?一文重新思考对抗样本背后的含义
1.1K0
【人脸识别终结者】多伦多大学反人脸识别,身份欺骗成功率达99.5%
1.4K0
【顶刊论文分享】DeepSec:深度学习模型的安全性分析平台
1.4K0
深度 | 脆弱的神经网络:UC Berkeley详解对抗样本生成机制
1.3K0
用100元的支票骗到100万:看看对抗性攻击是怎么为非作歹的
4580
相关推荐
浅谈深度学习中的对抗样本及其生成方法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档