演讲人:童超360人工智能研究院产品及对外合作负责人
大家下午好,我是来自360的童超。今天这个话题也挺有意思的,AI前沿技术落地,我也分享一点我们从360的角度观察到的我们在AI角度的一些技术和产业落地的思考。
人工智能这个概念从深度学习为基础开始,或者从2016年开始,我们已经有了一直在累积的热度,一直到今年还在延续。从数字化来看,我们可能会认为人工智能已经变成第一必要条件,是非常核心的动力。从一些案例来看,无论是谷歌在机器翻译的能力,微软在语音识别领域超过了普通人识别的水平,或者大家在近两年时间里集中看到DeepMind在生命科学领域有密集的前沿的研究成果,或者在一些商业领域看到AI在非常静默的服务各种各样的应用场景。已经形成了一个非常基础和前沿的支撑我们若干的实体或者虚拟经济的核心的动力。
但有一个问题,刚才我们看到人工智能作为一个前沿的基础技术,很多的前沿基础技术都会有AB两个面,本身没有什么道德的评判或者价值,但是由于不同的人在不同的场景使用了它,我们会发现这样的技术会出现AB两面。刚才我说了很多A面,社会价值、商业价值,有非常多正面的影响,同样的这样的技术很有可能被一些动机不纯的人用作B面的不好的影响。
传统我们在安全领域做很多攻防,攻防的技术基于我们传统的网络或者互联网的技术去做攻防。一些坏人有可能他发现人工智能可以被他所用,用来做一些更高级或者更持续的攻击,给我们带来的是在现在这样相对稳定的环境下,由于人工智能的出现,很有可能在攻击的这一方带来一些新的不同的方法。包括在我们国网的研究和探索的过程当中,比如像恶意代码的检测系统的攻击,有可能坏人或者负面的开发者、黑客,他可能用人工智能这样的模型来生成了一些可能非常隐匿的通过传统方法观察不到的恶意代码,穿透了原来防御的系统。或者是中间这个例子,我们非常常用的在互联网上已经目前基本形成工业共识的系统,最近我们发现有一些模型可能在非常短的时间里,毫秒级的时间里可以通过一些方式去攻破大家已经用了非常多年而且大家认为鲁棒性非常强的系统,这是一个危险的信号。语音诈骗,正向的大家会用到的是语音客服,背后是机器人,这个机器人会用在好的领域,同时可能会用在诈骗领域。当这个技术出现AB两面时,会引发我们思考,我们要怎样应对B面?
作为我们来讲,360是一个非常领先的并且长久在品牌上都是一个大安全的领先的企业,我们也利用人工智能技术做非常多尝试。我们如何在坏人用人工智能去做攻击的环境下,我们作为一个白帽子黑客团队,能够用这样的先进的人工智能技术来防御新形态的或者新类型这样的攻击。同时我们会发现一个问题,当新的技术出现的时候,我们常常说这种攻防的事情,最终还会落到人跟人的攻击上,这样不断的攻击和防御之间会产生一些在新的场景上的新的市场的机会。这时候我们会发现人工智能在整个大安全的市场里,慢慢它也会出现一些新的市场的小的领域或者场景。同时这个场景由于人工智能技术本身也在持续不断地在演进和发展,我们会发现这个市场慢慢变得越来越大。我们估计在2030年,在大安全市场里人工智能的份额可能占到千亿美元左右。像漏洞挖掘,传统会有非常多,像360积累了全世界最大的规则库,我们来找这样的漏洞。但是当人工智能技术出现的时候,这种规则库的技术可能不适用于在人工智能攻击条件下漏洞的检测。同样,我们作为防御方,也需要用人工智能技术来检测这样动态的生态或者新的生成我没有见过的这些漏洞。像恶意代码的检测,像恶意流量的检测,流量的问题很典型,我们会发现现在互联网的流量,越来越多的流量是在加密传输的,加密流量会带来一个挑战,我们用传统西德方法可能越来越难,在加密环境下检测到所谓的恶意流量。人工智能技术,由于能动态更新学习的特性,能够在类似场景下给我们更多的想象空间。
刚才说到一些技术的角度,回到国内市场和产业的角度来看,国内的人工智能安全市场是有一些不足的。我把它分为三个方面。
第一,我们会发现人工智能本身我们更多谈的是算法,但实际上人工智能是一个完整的系统。从国内角度看,对于人工智能系统本身,从底层的芯片、驱动算法的算力,到上层的行业的应用、软件的系统,我们可能每一个模块都会有一点点相应的标准或者安全评测的方法。当把它拉通在一起的时候,变成一个完整的系统时,我们会发现国内比较少,或者基本上没有一个完整的安全评测的手段,这时候对于采用这些人工智能技术或者采用有人工智能技术这样的产品的公司或者个人来讲,这是一个比较有风险的事情。
第二,在其他行业应用人工智能很像,人工智能本身技术的演进和大家对于人工智能采纳的期望是有一些距离的。第一是重视程度,刚才说A面B面,现在大家看到更多的是A面的价值,比较少看到B面的风险。第二是毕竟攻击是少数,在全网或者全部的场景看,攻击是相对少的数量,带来我们在训练样本上有攻击的数据相对少,对于我们训练一个好的模型是有挑战的。第三是我们对AI整个领域和应用场景上客户的需求是有一个鸿沟的,大家对这个预期是有问题的。
第三,从整个产业的角度去看,国内和国外有非常大的差异我这里列了一个数据,我们每年会有一个AI 100的榜单或者名单,整个名单里大概人工智能安全的公司占到24家,这其实是比较显著的比例,但是有一个很大的问题,这24家里没有一家来自中国,可能国外的市场已经逐渐意识到人工智能安全的事情是非常重要的,也有相关的公司在去做这样的尝试,并且取得了不错的成绩,已经有头部的公司大概有五六百亿美金市值的已经出现了。
基于上面的思考,从360角度来讲,基于我们自己的产品,并且依托我们科技部的平台,我们建设了安全大脑的国家新一代人工智能开放创新平台。作为我们来讲,是希望通过这样的平台能够把我们整个人工智能安全的大环境,把这个生态建立起来。在这个平台下,我们着眼的是三个方面的内容,第一个是AI的系统安全,如何能够让AI自己变得更安全,第二个是AI赋能安全,我们在若干的行业、若干的场景里,AI能够在他们需要的安全的需求里扮演什么样的角色。第三个是AI的安全创新环境,我们希望在AI安全生态下能够帮助更多的企业,包括我们跟更多的合作伙伴一起把AI安全的生态建立起来,变成更健康、成长更快的市场。
具体在这个平台里我们大概有三方面聚焦能力的建设。
第一是数据安全,这方面我们在研究和探索过程当中会发现,数据安全我们分成两类,第一个是模型的数据安全,我们会有很多AI的开发者把自己的模型部署在终端或者云端的系统里,但是往往大家可能没有意识到的是你的模型的数据是可以被拿到的或者可以被别人copy到的。这里面有个案例,我们的AI安全实验室发现,在我们研究非常多的App里会发现很多或者有相当部分的App他们的模型,我们可以直接看到他模型里的文件,白色的部分里面用了什么算法,每一层的设计,我们都看得到。这样带来的问题,作为一个开发者来讲,你训练好的模型是非常轻易的可能被黑客获取到的。
第二是个人隐私的数据,AI的应用肯定是我们部署好之后需要去做推理,需要有原始的数据进来做推理的动作。这时候如果说这个场景涉及到的有一些个人隐私的数据,这时候就很危险了。这里我们也看到有一些人脸识别的设备,在我们的探索过程当中也发现,它可能开的端口甚至明文的已经可以看到通过URL找到人脸的原始图片,这是非常危险的事情。算法安全,深度学习大家都知道,叫它黑箱算法。通过建立一个算法的平台,能够让我们深度学习算法在上面积累好的攻防的常用的场景之后,能够让其他的模型在上面去验证算法在这样的攻防场景下的鲁棒性如何。
第三部分是工程部分,我们往往在谈AI时忽略了工程部分,但实际上AI可能是依托于大的工程系统才能更好地运行起来。从360角度,有人工智能开放平台、机器学习平台和机器学习推理平台,从我们的角度来讲,也是持续在看这样的开源框架是不是有问题,支撑我们的开发者做开发。到目前为止我们的Tensorflow已经给官方提了90多个漏洞,这是在工程层面我们需要考虑的事情。
从场景落地和行业赋能来看,我们在工业互联网、物联网、车联网和智慧城市上会有很多的落地场景,针对教育行业、运营商,包括整个国家的信创行业,我们都会有相关能力的支撑。
刚才说到前面我们已经做的一些事情,从未来来看,我们大概会有两个关键字,第一叫共建,第二叫赋能。这个平台,从底层我们更多希望和政府部委,包括跟头部的安全创新的企业,能够结合360的安全大脑,把我们的数据、资源、知识汇集到这个平台上,能够向上去赋能若干行业和不同的垂类场景,能够这样的平台给AI安全这个事业添砖加瓦。
我们希望打造人工智能+安全的国家级开放平台,一起努力打造更好的安全可信的人工智能。这就是我的分享,谢谢大家。
领取专属 10元无门槛券
私享最新 技术干货