前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >深入浅出对抗性机器学习(AML)

深入浅出对抗性机器学习(AML)

作者头像
SIGAI学习与实践平台
发布于 2018-12-26 03:04:02
发布于 2018-12-26 03:04:02
1.7K0
举报

SIGAI推荐

SIGAI 资源大汇总

SIGAI特约作者

陈立庚

南京大学

研究方向:系统安全与软件安全

针对adversarial machine learning这个问题而言,AI出身的小伙伴们可能认为,这样的工作应该只能看做模型的鲁棒性或泛化能力不够强,但是从安全角度考虑,其实所谓的“安全”概念,是从模型的设计者角度出发,考虑到模型的行为超出意料之外,让模型设计者手足无措,因此我们认为是可能存在“潜在威胁”,因而将这类行为归类为安全问题。特此解释。

那么针对模型的攻击问题,我们主要分为两大类,就是从训练阶段和推理(inference)阶段来进行讨论。

训练阶段的攻击(Training in Adversarial Settings)

训练阶段的恶意攻击,主要的目的就是针对模型的参数进行微小的扰动,从让而模型的性能和预期产生偏差。这样的行为主要是通过数据投毒来完成的。

举个简单的例子,当我们在进行食品加工的时候,在里面少量的加入一些“有毒”的成分,那这个食品就会和当时预想的做出来不一样,从美味变成了毒物。当然,数据投毒没办法做到“一颗老鼠屎坏了一锅粥”,但是能通过尽量少的“老鼠屎”坏了尽量多的“粥”就是它的目的了。

不过在此之前,有个前提,在PAC理论中,有一个已经论证的结论:对于任意的学习算法而言,其置信度β,必须满足β≤Σ/1+Σ,其中Σ表示了学习准确率。那么也就是说,当我需要达到90%的学习准确率(Σ=0.1),那么我被扰动的数据量必须少于10%(0.1/1+0.1)。

(M. Kearns and M. Li, “Learning in the presence of malicious errors,” SIAM Journal on Computing, vol. 22, no. 4, pp. 807–837, 1993.)

1、标签操纵(label manipulation)

这个方法很直观,就是直接通过对于训练数据的标签进行替换,让数据样本和标签不对应,最后训练的结果一定是不如预期的。有前人在SVM的场景下,随机替换了约40%的数据,对其算法进行了破坏,最后的效果也如预期的很好。其实这只是在二分类问题中起到了比较好的结果,但是在多分类的情况下并没有很好的解释,或者是实证性的研究。(这里可以有一个比较有趣的思考,如果二分类的分类替换了40%的数据会导致模型的预测结果很不好,那么多分类的SVM需要替换多少数据样本的标签呢,是需要替换更少的标签,还是更多?是随机替换还是有目标性的都替换成一种?)

后来的研究则是对这个标签操纵的过程更加优化,是否能通过更少的标签替换,来实现更强烈的模型扰动,从而产生更有说服力的攻击模型。

(B. Biggio, B. Nelson, and P. Laskov, “Support vector machines under adversarial label noise.” in ACML, 2011, pp. 97–112. )

2、输入操纵(input manipulation)

在此攻击场景下,攻击者需要获知模型的算法类型,并且能结束到训练集。

比较直接的攻击方式,则是通过在线的方式获得训练数据的输入权,那么最终的结果就是直接通过恶意数据来扰动在线训练过程,自然最后的结果就是脱离预期,从而导致恶意者的操纵成功。

而当我们无法接触到在线模型的时候,我们只能通过线下的方式操纵训练数据,那么则需要构造尽量少且恶意程度尽量高的恶意样本,那么这就可以使用梯度上升的方法去达到局部分类错误最大的结果,从而完成样本构造,然后再输入到模型中进行训练。

那么,当我们无法直接接触到在线训练模型,或离线时,我们也无法解除到训练数据,我们该怎么进行输入的操纵呢?从之前的流程介绍中我们也提到了,在物理世界获取数据的时候,这阶段并没有受到很好的保护。因此这阶段的数据,我们可以通过恶意的攻击物理世界中的数据,例如交通信号灯,或者是自动驾驶摄像头正在拍摄的图像等。通过其在数据转换之前,就进行数据的污染,或是数据表示的污染。

(M. Kloft and P. Laskov, “Online anomaly detection under adversarial impact,” in International Conference on Artificial Intelligence and Statistics, 2010, pp. 405–412. )

推理阶段的攻击(Inference in Adversarial Settings)

当训练完成一个模型之后,这个模型就可以看做一个BOX,那么这个盒子中,对于我们如果是透明的话,我们就把它当成是“白盒”模型,如果这个盒子中,我们什么都看不了,我们就把它当成“黑盒”模型。(我们在这个部分不讨论灰盒模型)

那么针对白盒和黑盒的进攻手段自然是不同的,但是最终的目的都是希望能对模型的最终结果产生破坏,与预期脱离。其影响力以及攻击的构造粒度也是有所不同的。

1、白盒攻击(White-Box Adversarial)

当然这种所谓的“白盒攻击”,需要提供一个很“假”的前提——就是我们需要知道里面所有的模型参数,这个在现实生活中是非常不现实的。除非是,当模型被打包压缩到智能手机上之后,然后恶意者通过逆向工程来进行原有模型的复原,才有可能。当然这种情况出现的情况非常低了,因此我们需要有这种前提假设。

(1)

看到如上公式,其中x是数据样本的特征,l是数据样本通过函数h(x)预测的结果,l就是预测的结果。我们的数据样本通过模型的预测结果可能是k,但是我们希望通过尽量小的扰动r,最后通过模型预测的结果是l(然而x的分类目标并不是l)。目标很明确。

( B. Biggio, I. Corona, D. Maiorca, B. Nelson, N. ˇSrndi´c, P. Laskov, G. Giacinto, and F. Roli, “Evasion attacks against machine learning at test time,” in Machine Learning and Knowledge Discovery in Databases. Springer, 2013, pp. 387–402. )

当然这样的方法对于非凸的模型,例如深度神经网络也有类似的工作,同样也是能通过较小的扰动,来达成模型的误分类目的。

( D. C. Liu and J. Nocedal, “On the limited memory bfgs method for large scale optimization,” Mathematical programming, vol. 45, no. 1-3, pp. 503–528, 1989. )

当然可以看到,如式(1)中所示,我们可以很明显的看到,其实如何快速求解这个扰动“r”是个问题,因此之后就有工作专门针对这个问题进行了探索,给出了如下方法,FGSM:

(2)

如式(2)所示,通过梯度可以快速求到,通过最小的扰动获得的最后的攻击目的。

the process of FGSM

那么后续的工作无外乎就是从两个方向进行优化,一方面就是尽量少的对样本扰动,从而能达成攻击,另一方面对尽量少的样本特征进行操纵,通过算法的优化,从而能达到更高的错误识别率。

(N. Papernot, P. McDaniel, S. Jha, M. Fredrikson, Z. B. Celik, and A. Swami, “The limitations of deep learning in adversarial settings,” in Proceedings of the 1st IEEE European Symposium on Security and Privacy. IEEE, 2016. )

有一个很有趣的现象,是这样描述的,其实在数据进入预处理步骤之前,在物理世界中,如果没有一个很好的表示形态,即使经过了预处理,模型也很难识别。这就给了研究者一些启发,对图片进行打印之后,再拍照让模型进行识别;亦或是把人脸的图片打印在玻璃上,然后再进行识别。这样的结果,都会有很高的误识别率。(虽然目前CV发展的势头很好,但是由此看来,还是有不少算法对于环境和背景的敏感程度很高)

大家都认为,adversarial machine learning应该关注在分类问题上,但是其实并不然,其实如果一个AI系统是以agent为核心,或是以multi-agent为核心的强化学习系统的话,那也是有可以攻击的点的,例如改变环境获取的结果?等……(只是猜想),现在有课题组可以在一些固定模式下自动进行星际争霸的游戏,如果攻击了这样的系统,应该还是很有趣的。

不仅模型的预测结果是有脆弱的地方,同时,当我们拥有模型参数的时候,也是可以进行模型训练集数据分布的预测的。虽然这个并不是最重要的信息,但是也是一部分关于模型的隐私。

(G. Ateniese, L. V. Mancini, A. Spognardi, A. Villani, D. Vitali, and G. Felici, “Hacking smart machines with smarter ones: How to extract meaningful data from machine learning classifiers,” International Journal of Security and Networks, vol. 10, no. 3, pp. 137–150, 2015. )

2、黑盒攻击(Black-Box Adversarial)

当模型处于黑盒的时候,更加符合现实的场景,但是这比白盒的模型缺少了更多的模型信息。因此,大家就从几个角度考虑如何进行模型攻击:通过输入和输出猜测模型的内部结构;加入稍大的扰动来对模型进行攻击;构建影子模型来进行关系人攻击;抽取模型训练的敏感数据;模型逆向参数等。

其中我觉得比较有意思的是两个方法,一个是加入扰动来对模型进行攻击。这个方法最主要针对的是,找到原有模型的“blind spot”,或是说“blind area”。这些区域主要是原有模型模棱两可的区域,或是boundry,这对二分类的问题来说可能这些区域比较小或是比较狭窄,但是如果针对的是多分类问题,就可能在高维空间中提现出更多的“blind area”。因此尽量高的命中这些盲区,是这种方法致力于的方向,同时这里也提出一个思考,这样的盲区是否是可以定向搜索的,或是说是否可以用一个模糊的算法bound住这些区域。

第二是建立影子模型,这个process很有意思,通过构建一个功能性类似的模型,来仿造一个攻击空间。这有点像军事演习的意思,我想要在战场上打出好的效果,就要模拟产战场上可能发生的情况,但是目前战场的情况我一无所知,所以我只能根据大致的情况去模拟。模型也是如此,只能对黑盒的情况进行对应的训练模拟,然后对其进行“白盒”的尝试,由于模型的迁移性还不错,或者说类似的算法都有不少的相同点,因此,影子模型的攻击成效还是不错的。

Shadow Model Establishment

至此,基本上从训练阶段到推理阶段的攻击都大致介绍了一遍,也算是给自己再复习了一遍。有所不对,或是思考不够全面的,还请大家斧正。

以上。

参考文献:

[1] M. Kearns and M. Li, “Learning in the presence of malicious errors,” SIAM Journal on Computing, vol. 22, no. 4, pp. 807–837, 1993

[2] B. Biggio, B. Nelson, and P. Laskov, “Support vector machines under adversarial label noise.” in ACML, 2011, pp. 97–112.

[3] M. Kloft and P. Laskov, “Online anomaly detection under adversarial impact,” in International Conference on Artificial Intelligence and Statistics, 2010, pp. 405–412.

[4] B. Biggio, I. Corona, D. Maiorca, B. Nelson, N. ˇSrndi´c, P. Laskov, G. Giacinto, and F. Roli, “Evasion attacks against machine learning at test time,” in Machine Learning and Knowledge Discovery in Databases. Springer, 2013, pp. 387–402.

[5] D. C. Liu and J. Nocedal, “On the limited memory bfgs method for large scale optimization,” Mathematical programming, vol. 45, no. 1-3, pp. 503–528, 1989.

[6] N. Papernot, P. McDaniel, S. Jha, M. Fredrikson, Z. B. Celik, and A. Swami, “The limitations of deep learning in adversarial settings,” in Proceedings of the 1st IEEE European Symposium on Security and Privacy. IEEE, 2016.

[7] G. Ateniese, L. V. Mancini, A. Spognardi, A. Villani, D. Vitali, and G. Felici, “Hacking smart machines with smarter ones: How to extract meaningful data from machine learning classifiers,” International Journal of Security and Networks, vol. 10, no. 3, pp. 137–150, 2015.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-12-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SIGAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
从安全视角对机器学习的部分思考
近几年,机器学习的大规模应用,以及算法的大幅度提升,吸引了学术界、工业界以及国防部门的大量关注。然而,对于机器学习算法本身的局限性,由于其快速的发展也不断的暴露了出来。因此,不论是人工智能领域的学者,还是安全领域的学者,都希望能够从不同的角度提高模型的泛化能力,自此之后,就拉开了一场在机器学习领域的军备竞赛。在不断的“攻”与“防”的竞争下,目前的针对机器学习模型的安全问题,也取得了不错的进展。所以,在本文中,首先对机器学习模型中可能出现安全隐患的部分进行了总览。然后针对不同的场景,进行了不同场景可能出现安全隐患的描述。最后,针对不同阶段的脆弱点,综述了当前的工作情况,并以此延伸出之后的工作可行的研究点。
SIGAI学习与实践平台
2019/01/23
9250
从安全视角对机器学习的部分思考
Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记(1)
如今一些深度神经网络对于一些对抗性样本(Adversarial sample)是弱势的, 对抗性样本就是指我们对输入进行特定的改变, 通过原有的学习算法最终导致整个网络内部出现误差, 这属于攻击的一种, 然而, 现在的攻击都是要么计算代价特别大, 要么需要对目标的模型和数据集有大量的先验知识, 因此, 这些方法在实际上其实都不实用. 该文章主要介绍了一种程序性噪声, 利用该噪声, 使得构造实用的低计算量的黑盒攻击成为了可能, 对抗鲁棒性的神经网络结构, 比如Inception v3和Inception ResNet v2 在ImageNet数据集上. 该文章所提出来的攻击实现了低尝试次数下成功造成错分类. 这种攻击形式揭露了神经网络对于Perlin噪声的脆弱性, Perlin噪声是一种程序性噪声(Procedural Noise), 一般用于生成真实的纹理, 使用Perlin噪声可以实现对所有的分类器都实现top1 至少90%的错误率, 更加令人担忧的是, 该文显示出大多数的Perlin噪声是具有"普适性"(Universal)的, 在对抗样本中, 数据集的大部分, 使用简单的扰动使得高达70%的图片被错误分类
Mezereon
2018/11/09
1.2K0
自动机器学习:最近进展研究综述
本文首先从端到端系统的角度总结了自动机器学习在各个流程中的研究成果,然后着重对最近广泛研究的神经结构搜索进行了总结,最后讨论了一些未来的研究方向。
AI科技评论
2019/08/15
5260
万字长文:集群智能机器人的过去、现在与未来
到目前为止,只有少数实验成功地演示了大量的自治自组织机器人,而集群机器人的实践应用仍是一片空白。
AI科技评论
2021/07/27
1.3K0
万字长文:集群智能机器人的过去、现在与未来
三维点云分割综述(中)
在上篇文章中,我们介绍了关于点云的获取方式上的区别,点云的密度,以及各种场景下应用的区别,本篇文章将更加具体的介绍点云分割相关技术。
点云PCL博主
2020/08/10
3.5K0
三维点云分割综述(中)
Ian Goodfellow & ICLR-17最佳论文得主新作:验证与测试,机器学习的两大挑战
AI 科技评论按:去年年底,Ian Goodfellow与Nicolas Papernot(是的,就是ICLR 2017的最佳论文得主之一)合作开了一个博客叫cleverhans,主要写一些关于机器学习在安全与隐私问题的文章。一个Goodfellow、一个Papernot,此二神的称呼真是般配呢。 在第一篇博客里,他俩介绍了为什么攻击机器学习要远比防御容易得多。以下是雷锋网AI科技评论编译的第二篇文章,未经雷锋网AI科技评论许可不得转载: 在我们的第二篇博客里,我们此前已经给出了一些背景知识,告诉大家,为什
AI科技评论
2018/03/13
8160
Ian Goodfellow & ICLR-17最佳论文得主新作:验证与测试,机器学习的两大挑战
【译】用于肺部CT肺结节分类的深度特征学习摘要
题目:用于肺部CT肺结节分类的深度特征学习 原文链接(IEEE):《Deep feature learning for pulmonary nodule classification in a l
zhwhong
2018/05/16
1.5K0
论文研读-基于变量分类的动态多目标优化算法
[1] K. Deb, U. V. Rao, and S. Karthik, “Dynamic multi-objective optimization and decision-making using modified NSGA-II: A case study on hydro-thermal power scheduling,” in Proc. EMO, vol. 4403, 2007, pp. 803–817. [4] M. Farina, K. Deb, and P. Amato, “Dynamic multi-objective optimization problems: Test cases, approximations, and applications,” IEEE Trans. Evol. Comput., vol. 8, no. 5, pp. 425–442, Oct. 2004. [19] C.-K. Goh and K. C. Tan, “A competitive-cooperative coevolutionary paradigm for dynamic multi-objective optimization,” IEEE Trans. Evol. Comput., vol. 13, no. 1, pp. 103–127, Feb. 2009. [20] M. Helbig and A. P. Engelbrecht, “Heterogeneous dynamic vector evaluated particle swarm optimization for dynamic multi-objective optimization,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2014, pp. 3151–3159. [21] A. P. Engelbrecht, “Heterogeneous particle swarm optimization,” in Proc. Int. Conf. Swarm Intell., 2010, pp. 191–202. [22] M. A. M. de Oca, J. Peña, T. Stützle, C. Pinciroli, and M. Dorigo, “Heterogeneous particle swarm optimizers,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2009, pp. 698–705. [23] M. Greeff and A. P. Engelbrecht, “Solving dynamic multi-objective problems with vector evaluated particle swarm optimization,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2008, pp. 2917–2924. [24] M. Martínez-Peñaloza and E. Mezura-Montes, “Immune generalized differential evolution for dynamic multi-objective optimization problems,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2015, pp. 846–851. [25] A. Zhou, Y. Jin, and Q. Zhang, “A population prediction strategy for evolutionary dynamic multi-objective optimization,” IEEE Trans. Cybern., vol. 44, no. 1, pp. 40–53, Jan. 2014. [26] A. Muruganantham, K. C. Tan, and P. Vadakkepat, “Evolutionary dynamic multi-objective optimization via Kalman filter prediction,” IEEE Trans. Cybern., vol. 46, no. 12, pp. 2862–2873, Dec. 2016. [27] I. Hatzakis and D. Wallace, “Dynamic multi-objective optimization with evolutionary algorithms: A forward-looking approach,” in Proc. ACM Conf. Ge
演化计算与人工智能
2020/08/14
1.3K0
IEEE TIP 2022 | 基于食材区域发现及区域间关系建模的食品图像识别和食材预测
本期分享我们和美团视觉智能部视觉内容理解组合作发表于IEEE TIP2022的研究工作“Ingredient-Guided Region Discovery and Relationship Modeling for Food Category-Ingredient Prediction” (Wang Zhiling, Min Weiqing, Li Zhuo, Kang Liping, Wei Xiaoming, Wei Xiaolin, Jiang Shuqiang) 。IEEE TIP的全称为IEEE Transactions on Image Processing,是计算机视觉和图像处理领域的主流国际期刊,当前影响因子为11.041。
一点人工一点智能
2022/12/27
1.3K0
IEEE TIP 2022 | 基于食材区域发现及区域间关系建模的食品图像识别和食材预测
【系列文章】面向自动驾驶的三维点云处理与学习(6)-完结篇
标题:3D Point Cloud Processing and Learning for Autonomous Driving
点云PCL博主
2021/03/24
1.3K0
【系列文章】面向自动驾驶的三维点云处理与学习(6)-完结篇
观点 | 下一步研究目标:盘点NLP领域最具潜力的六大方向
选自ruder.io 作者:Sebastian Ruder 机器之心编译 参与:李泽南、黄小天 在开始你的研究之前,了解目标领域中最重要的研究方向是很重要的任务。本文中,德国海德堡大学的计算语言学在读博士 Sebastian Ruder 为我们介绍了 NLP 领域里最具潜力的几个研究方向。 目录 独立于任务的 NLP 数据增强 用于 NLP 的 few-shot learning 用于 NLP 的的迁移学习 多任务学习 跨语言学习 独立于任务的架构提升 当开始新领域的研究时,你会发现寻找引人注目的主题并学
机器之心
2018/05/09
8460
【系列文章】面向自动驾驶的三维点云处理与学习(5)
这篇文章在可以说是很完整的介绍了点云在自动驾驶中各个模块的角色,从宏观的分模块的介绍了点云在自动驾驶中的作用与应用,看完整篇文章,将不仅对自动驾驶技术有了更为全面的理解,并理解点云在自动驾驶中的重要性,这里介绍的高精地图的创建以及定位感知等模块介绍是自动驾驶领域的核心技术,比如在介绍的定位模块的两种定位方式的时候就介绍了不同场景下的使用语义的几何信息以及点云强度信息进行定位的方法时,完全对得上apollo自动驾驶方案,让读者收获颇多。这里博主决定将其完整的翻译过来分享给更多感兴趣的朋友。
点云PCL博主
2021/03/08
7050
【系列文章】面向自动驾驶的三维点云处理与学习(5)
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华
点击上方↑↑↑“OpenCV学堂”关注我来源:公众号 机器之心 授权 本文对最近被 TPAMI 接收的一篇综述文章 Human Action Recognition from Various Data Modalities: A Review(基于不同数据模态的人类动作识别综述)进行解读。 原综述文章地址:https:arxiv.org/pdf/2012.11866.pdf 1 概述 人类动作识别(Human Action Recognition, HAR)旨在理解人类的行为,并为每个行为分配一个标签。多
OpenCV学堂
2022/09/19
1.6K0
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华
NeurIPS 2021 | CyGen:基于概率论理论的生成式建模新模式
在概率论中,两随机变量的一个联合分布可由一个变量的边缘分布和对应条件分布确定,也可对称地由另一变量的边缘分布和另一方向的条件分布确定,但无法由这两个边缘分布确定。因此,可否仅由这两个条件分布来确定联合分布,成为了科研人员感兴趣的研究方向。 针对上述问题,微软亚洲研究院的研究员在 NeurIPS 2021 上发表的论文给出了全面而准确的回答,并基于此理论提出了一个全新的生成式建模模式 CyGen。其仅需两个可形成闭环的条件分布模型,而无需指定先验分布,从而从根本上解决了流形错配和后验坍缩问题,使得其在实验中可
AI科技评论
2023/04/12
2380
NeurIPS 2021 | CyGen:基于概率论理论的生成式建模新模式
A Novel Proof-of-Reputation Consensus for Storage Allocation in Edge Blockchain Systems 精读笔记(四)
We generate an operation list, representing the operations of the nodes in the network arranged in chronological order. From the perspective of node i, we introduce the following two operations.
timerring
2022/07/20
2880
A Novel Proof-of-Reputation Consensus for Storage Allocation in Edge Blockchain Systems 精读笔记(四)
【学习】Deep Learning for Deepfakes Creation and Detection[通俗易懂]
论文题目:Deep Learning for Deepfakes Creation and Detection 翻译:基于深度学习的Deepfake创建与检测
全栈程序员站长
2022/08/24
1.3K0
【学习】Deep Learning for Deepfakes Creation and Detection[通俗易懂]
深度 | L2正则化和对抗鲁棒性的关系
两个高维聚类由一个超平面分离,考虑超平面和图中水平线之间的夹角,在线性分类中,这个夹角取决于 L2 正则化的程度,你知道为什么吗?上图:L2 正则化程度较小;下图:L2 正则化程度较大。
机器之心
2018/08/07
9410
深度 | L2正则化和对抗鲁棒性的关系
Python深度强化学习对冲策略:衍生品投资组合套期保值Black-Scholes、Heston模型分析
本文提出了一个在存在交易成本、市场冲击、流动性约束或风险限制等市场摩擦的情况下,使用现代深度强化学习方法对衍生品投资组合进行套期保值的框架。我们讨论了标准强化学习方法如何应用于非线性奖励结构,即本文中的凸风险度量。
拓端
2024/12/03
1770
Python深度强化学习对冲策略:衍生品投资组合套期保值Black-Scholes、Heston模型分析
机器学习发展历史回顾
机器学习是现阶段解决很多人工智能问题的主流方法,作为一个独立的方向,正处于高速发展之中。最早的机器学习算法可以追溯到20世纪初,到今天为止,已经过去了100多年。从1980年机器学习称为一个独立的方向开始算起,到现在也已经过去了近40年。在这100多年中,经过一代又一代人的努力,诞生出了大量经典的方法,在本文中,SIGAI将分有监督学习,无监督学习,概率图模型,深度学习,强化学习4个大方向对历史上出现的经典算法进行整理与总结,帮助大家理清机器学习这100多年来的发展历史,完成对机器学习的寻根问祖之旅。限于篇幅,我们无法对所有算法一一列举,只介绍有代表性的一部分。
SIGAI学习与实践平台
2018/09/05
2.7K0
机器学习发展历史回顾
【文献阅读】Split-KalmanNet:一种鲁棒的基于模型的深度学习方法用于状态估计
题目:Split-KalmanNet: A Robust Model-Based Deep Learning Approach for State Estimation
mindtechnist
2024/08/08
5010
【文献阅读】Split-KalmanNet:一种鲁棒的基于模型的深度学习方法用于状态估计
推荐阅读
从安全视角对机器学习的部分思考
9250
Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记(1)
1.2K0
自动机器学习:最近进展研究综述
5260
万字长文:集群智能机器人的过去、现在与未来
1.3K0
三维点云分割综述(中)
3.5K0
Ian Goodfellow & ICLR-17最佳论文得主新作:验证与测试,机器学习的两大挑战
8160
【译】用于肺部CT肺结节分类的深度特征学习摘要
1.5K0
论文研读-基于变量分类的动态多目标优化算法
1.3K0
IEEE TIP 2022 | 基于食材区域发现及区域间关系建模的食品图像识别和食材预测
1.3K0
【系列文章】面向自动驾驶的三维点云处理与学习(6)-完结篇
1.3K0
观点 | 下一步研究目标:盘点NLP领域最具潜力的六大方向
8460
【系列文章】面向自动驾驶的三维点云处理与学习(5)
7050
TPAMI 2022 | 不同数据模态的人类动作识别综述,涵盖500篇文章精华
1.6K0
NeurIPS 2021 | CyGen:基于概率论理论的生成式建模新模式
2380
A Novel Proof-of-Reputation Consensus for Storage Allocation in Edge Blockchain Systems 精读笔记(四)
2880
【学习】Deep Learning for Deepfakes Creation and Detection[通俗易懂]
1.3K0
深度 | L2正则化和对抗鲁棒性的关系
9410
Python深度强化学习对冲策略:衍生品投资组合套期保值Black-Scholes、Heston模型分析
1770
机器学习发展历史回顾
2.7K0
【文献阅读】Split-KalmanNet:一种鲁棒的基于模型的深度学习方法用于状态估计
5010
相关推荐
从安全视角对机器学习的部分思考
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档