记者 | 彭新
编辑 |
1
应用程序“ZAO”火遍社交网络,但其引发的隐私、信息安全问题待解。随着机器学习技术不断发展以及AI的加持,虚假信息正逐渐影响公共生活。
近日,在IEEE(电气电子工程师学会)的年度媒体交流会上,中科院自动化研究所副研究员、 中国人工智能学会理事董晶博士认为,打破虚假信息面具,“以AI对抗AI”将会是解决方案。
“蓄意与便利的图像篡改,为互联网数据的真实性带来巨大伤害,眼见再不为实。”董晶表示,以换脸APP“ZAO”为例,虽然开发方并未透露其技术细节, 没有明确表示其“换脸” 技术源自开源的“Deepfakes”,但有着强烈的相似性。
据董晶介绍,“Deepfakes”使用了一种名为生成式对抗网络(GAN) 框架,利用神经网络学习所用数据源的统计特征,其中一个网络模块负责生成伪图,另一个负责鉴别生成图片的质量,通过对抗博弈的方式不断进化,达到以假乱真的水平。
相对于传统“换脸”技术,生成式对抗网络以机器人视觉(CV)为基础,技术门槛降低,算法上也有公开的源代码可循,数据库、训练模型均可方便获得,其训练结果与机器学习时间长短、训练模型有关。同时,模型依赖数据自动学习、自动生成,无需人工干预。体现在“Deepfakes”上,其流程包括对数据的提取、训练和转换。
近两年,AI最显着的应用是在图像领域,如人脸识别、医疗影像识别等,原因是深度学习在图像领域首先取得了成功,识别的准确率甚至超过了人眼,使其完全达到了可以产业化的水平。
不过,若采用机器深度学习的造假技术日益遭到滥用,预计将造成重大后果。“由于这些技术都利用了生物信息,而生物信息本身具有不可撤销性,因此它们一旦被泄露或被滥用,都会给用户带来严峻且永久的后果,甚至会对司法调查、保险鉴定等这些严肃、敏感的地带造成严重冲击。” 董晶说。
以取证为例,董晶总结,目前在图像、视频领域的证据造假呈现两大趋势:从内容编辑转向内容生成,从图像篡改转向视频篡改。为信息安全带来巨大挑战。
不过,技术推动了新造假方式的产生,同时也提供了打假的新方法。在学界,其中一种验证方式是要求录制的内容必须提供元数据,元数据能显示录制的内容是何时何地以及何种方式被收集的。了解了这些信息,如果发现视频、图片的某个细节与实际情况不符,就可以据此判断虚假信息加以剔除。
董晶通过反向利用AI技术,从伪造图片的蛛丝马迹中辨别真伪信息: “我们首先需要确定人类视觉系统和计算机视觉系统在识别特定信息的认知特性、机理与计算方法,进而从人类视觉系统与计算机视觉系统的认知差异性出发,通过借鉴两类视觉系统之间的认知以及计算的差异性和关联性来鉴别图像真伪。”
目前,董晶研究通过利用AI从视频中远程读取心率、呼吸频率等生理特征, 进而辨别视频中的人像是真人还是假人。在AI的帮助下,原本肉眼无法看到的心跳、脉搏、呼吸率,也能以数据的形式具象化,突破人眼视觉的盲区, 从而达到深度鉴别的目的。
“要实现有效利用人类与计算机二者视觉系统认知的差异性及关联性,关键难点就是伪造特征的获取与表达。” 董晶说。
董晶强调,是否能将伪造特征在视觉内容中有效地检测与识别,往往决定了真伪鉴定技术的可靠性。然而,伪造特征作为一种“微弱信号”,很多时候不易被察觉。同时,由于伪造特征长期处于不断变化当中,没有统一的模型,这些特性都给微弱信号的捕捉与识别工作增加了难度。
领取专属 10元无门槛券
私享最新 技术干货