用人工智能制作的假视频片段也可以被人工智能发现。近日,美国国防部运行的一个项目开发出了第一个通过 AI 技术捕捉色情和假新闻的取证工具。
近几年,随着 AI 技术的发展,其在造假上的应用也引起了政府方面的注意。法庭有关专家正急于找到能检测出 AI 合成视频的方法,因为机器学习技术可以很容易地制作出以假乱真的虚假视频,这些视频可能被用来散布虚假信息或骚扰他人。
图丨在这个视频中,尼古拉斯凯奇的脸被套到了特朗普脸上
制作虚假视频最常见的手段是用机器学习技术把一个人的脸换到另一个人身上,由此产生的视频被称为“deepfakes”。这种视频制作简单,而且非常逼真。如果由一个熟练的视频编辑进一步的调整,可以使视频看起来更加真实。
视频造假中使用的一种机器学习技术,即生成建模,让计算机从真实数据中学习,然后生成统计上相似的假数据。最近的一个技术突破是生成式对抗网络,这种技术可以基于两个神经网络来实现更逼真的造假。
此次捕捉 deepfakes 的工具源于DARPA(美国国防高级研究计划局) 负责的名为“媒体取证”项目。该项目原本是为了自动化现有的取证工具,但最近将注意力转向了人工智能造假。
“我们在目前由 GAN 生成的图像和视频中发现了一些微妙的线索,让我们能够检测到造假的存在,”媒体取证项目的负责人 Matthew Turek 说。
其中,一种非常简单的技术是由纽约州立大学奥尔巴尼分校教授 Siwei Lyu 和他的一名学生领导的团队开发出来的。“我们制作了大约 50 个假视频,并尝试了一些传统的取证方法,但这些方法并不总是奏效。”研究人员介绍说。
但某一天下午,Lyu 在研究几个假视频时发现,用 deepfakes 制作的人脸很少眨眼,甚至根本不会眨眼。当他们眨眼的时候,眼睛的运动是不自然的。这是因为 deepfakes 是在静止图像上训练的,这些图像往往显示一个人睁着眼睛的图像。
其他参与 DARPA 挑战的人也在探索类似的自动捕捉 deepfakes 的技巧,奇怪的头部运动、奇怪的眼睛颜色等等。达特茅斯大学的数字取证专家 Hany Farid 表示:“我们正致力于利用这些生理信号进行造假识别,至少就目前而言,这些生理信号很难被 deepfakes 模仿。”
DARPA 的 Turek 说,DARPA 将举办更多的竞赛,“以确保开发中的工具能够检测到最新的造假技术。”
这些取证工具的出现标志着视频伪造者和数字侦探之间的 AI 技术竞赛开始。Farid 说,一个关键的问题是机器学习系统可以被训练得比取证工具更灵活。
Lyu 表示,熟练的伪造者只要收集一个人眨眼的图像,就可以绕过他的眨眼工具。但他补充说,他的团队已经开发出了一种更有效的技术,该技术目前暂时保密。Lyu 说:“我们现在比伪造者有一点优势,我们希望保持这一优势。”
-End-
编辑:LXQ
参考:
https://www.technologyreview.com/s/611726/the-defense-department-has-produced-the-first-tools-for-catching-deepfakes/
领取专属 10元无门槛券
私享最新 技术干货