当谈到deepfakes时,到目前为止我们所看到的只是冰山一角。在不久的将来,我们将无法确定我们在视频通话中与之交谈的人是真实的还是冒名顶替者,并且骗子将不会有麻烦地创建一个完整的虚假视频年表来支持他们的主张,或者诱使人们相信报价或活动的合法性。
这些令人痛心的预测来自微软首席科学官埃里克·霍维茨(Eric Horvitz)在一篇新的研究论文中,题为“在地平线上:交互式和组合深度伪造”。
Deepfakes 本质上是“photoshopped”视频。通过使用人工智能 (AI) 和机器学习 (ML),威胁行为者能够创建一个人说出他们从未说过的话的视频。现在,根据霍维茨的说法,骗子已经准备好将其提升到一个新的水平。交互式深度伪造正如您所期望的那样 - 用户可以与之交互的实时视频,实际上,这些视频完全是假的。
合成历史
另一方面,组合深度伪造被描述为“一组深度伪造”,旨在随着时间的推移与“观察、预期和设计的世界事件相结合,以创造有说服力的合成历史”。
“综合历史可以手动构建,但有朝一日可能会受到对抗生成解释 (AGE) 技术的指导,”Horvitz 补充道。
他还表示,在不久的将来,几乎不可能将假视频和假内容与真实内容区分开来:“在没有缓解措施的情况下,交互式和组合式的深度造假有可能使我们更接近一个后认知世界,在这个世界中,事实无法与小说区分开来。”
这种缓解措施的缺失源于这样一个事实,即威胁参与者可以将人工智能与分析工具相提并论,并开发出能够欺骗最先进检测系统的深度伪造内容。
“由于这个过程是深度伪造的基础,模式识别技术和人类都无法可靠地识别深度伪造,”霍维茨指出。
所以,下次有家人从国外打电话要钱付房租的时候,要确定不是骗子冒充(在新标签中打开)你爱的那些人。
领取专属 10元无门槛券
私享最新 技术干货