图片来源@视觉中国
提起马赛克,相信很多神级宅男都恨得牙痒痒:费劲吧啦地下载了一两个小时,一打开,有码……估计摔电脑的心都有。
当然马赛克除了有时候会耽误宅男的心情,更多的时候是起到了非常重要的保护作用。比如对一些涉及恐怖、血腥内容,或者警务人员的画面时候,打个马赛克能避免对人造成不适,也可以保护公职人员的安全。而且,电影中打码也并不是为了故意要伤宅男的心,一切都是商业需要。总体来说,马赛克在日常使用中基本上没什么正经值得黑的地方。
但问题在于,在人工智能时代来临之后,马赛克可能要面临被“解码”的风险了。
虽然日常图片、视频中我们经常会接触到马赛克,但很多人对它的由来可能并不清楚。
“马赛克”是英文单词“mosaic”一词的音译,其本为一种镶嵌工艺,呈块状,源于古希腊。而人们对图像进行区域性模糊处理的方法就是,将特定区域的色阶细化,并造成色块打乱的效果。这样的色块就像一个个小方格,与马赛克非常相似。因此,这种图像模糊处理就被称为马赛克。
其实更简单点说,就是调低图像分辨率。本来一张脸可以细分为1000万个像素点,现在给你变成10个,你还能认出来吗?
所以,我们说码打得重不重,就是看分辨率调低的程度如何。
既然是图像处理,马赛克自然基本有两种场景:图片和视频。
给图片打码基本上不存在什么难度,由于图片是静态的,因此选中区域,直接操作就可以。但涉及给动态视频打码的时候,技术难度就出来了。
视频是由一帧一帧的图片组成的,看起来要解决这个问题最直接的方式就是对每一帧图片都打码,然后组合在一起,视频打码就大功告成。但显然不太可能。传统的电影胶片一秒钟有24帧,即便是处理一个5分钟的视频,也要处理上千张图片,活干完估计看什么都成马赛克了。
为此,人们也是想了很多办法。YouTube曾推出过一款自定义模糊工具,用户们可以通过该工具对自己的车牌号、门牌号、银行卡等一系列隐私内容打码。表面上来看,技术小白也能够轻松打上马赛克。但尴尬的是,这款工具很容易扩大打码范围,比如你给车牌打个码,很可能整个车头都没了;要给自己的脸打个码,可能会连累到整个身体一起模糊。
而微软开发的打码工具可能会跟踪得更加精准。该工具基于人工智能技术打造:通过建立一个深度学习神经网络,其可以精准检测到视频中的人脸,从而实现跟踪。并且为了避免对视频中其他人物的“误码”,其能够实现对不同人脸的识别。通过这一套流程,人工智能打码的表现还不错。
利用人工智能打码可以说是打码技术的一大进步,人们不必一帧一帧地进行图像处理,也不必使用笨笨的视频处理软件对视频片段进行提取、复制、渲染、跟踪,也就在很大程度上避免了会时不时出现马赛克跟不上目标移动速度而导致暴露的情况出现。
可是,马赛克带着保护隐私的目的而来,却更激发了人们对背后真实内容的好奇心。AI打码没闲着,还有一群“解码”的人也是忙忙碌碌。
解码的逻辑也很简单:既然你马赛克是模糊图像处理,那我给你清晰化不就完了吗?
不久前英伟达、芬兰阿尔托大学和麻省理工就联合开发了一项技术,利用AI可以在几毫秒内对模糊图像进行精细化处理。事实上,类似的模糊图片处理技术有很多,对其而言,处理一些打码层级较低的图片可能还有点做用,稍微复杂点儿就要靠边站了。
当然也有人正儿八经地干马赛克消除技术的研发。
得克萨斯大学2016年曾经开发出一种消除马赛克的手段,能够有效地穿透马赛克的遮挡,从而识别出图片信息。技术人员通过建立一个面部和文字识别系统,利用网络上的图片对其进行训练,最终对模糊视频中人脸还原准确率达到80%以上,对经过严重马赛克处理的人脸也可以实现50%左右的正确还原率。
能做到这个程度,应该说足够引起那些随随便便就打打码的人的警惕了。
而去年谷歌则来个了更狠的。就在微软推出人脸识别的移动打码之后,谷歌宣布,通过采用全新的像素递归超分辨率技术,Google brain已经获取了图像高低像素之间的变化规律,因此可以实现对打码内容的更精准匹配。比如学到红的是嘴唇之后,它就会把相应的部分还原成嘴唇。
也就是说,通过学习和训练,Google brain可以针对马赛克“脑补”出照片中人脸的原貌。
看起来谷歌是很不给微软面子啊……
相信宅男朋友们已经跃跃欲试,巴不得谷歌赶紧把这项技术推到实际应用当中,免得一次又一次在希望和失望之间辗转反侧了。
但客观来说,打码实际上是对图片的一种不可逆的损害行为。因此,与其说对图片的“还原”,更准确的说法应该是“猜测”。利用人工智能对马赛克图片进行通俗意义上的还原处理,一个必要的条件就是大量的图片对比。无论是得克萨斯大学还是谷歌都是如此,这也就意味着在缺乏原图素材的情况下,人工智能也只能是无限地接近原图。
但是,接近就意味着可能,或者说不一定与原图相同,但可以做到高度相似。从这个角度上来说,马赛克消除技术的出现无疑会对我们文章开头提到的隐私安全问题产生巨大威胁。
为了应对这种谁也不愿意看到的可能,我们或许可以考虑以下几种方式。
第一,对进行图像加密修改。得克萨斯大学虽然对模糊视频和打码视频的识别率很高,但对采用了南加州大学开发的P3技术(Privacy-Preserving Photo Sharing,隐私保护照片共享)修改的图像却仅仅只有17%的识别正确率。该技术正是为保证照片在互联网时代传播的安全性而研发。类似的技术还有很多,其通过对照片的细节特征进行修改,可以误导人工智能猜测的方向,从而保护隐私安全。
第二,改变打码形式。西蒙弗雷泽大学的研究人员提出了一种利用人工智能将需要打码的人脸艺术化的方法。通过这种方式,其可以表现出说话人的情绪特征,使视觉效果变得不那么干巴巴的。毕竟总是看着一片马赛克晃来晃去视觉感受确实不那么好。
而且,经过抽象画处理的人脸,看起来应基本跟人脸没什么太大的关系了……如果谷歌还想识别的话,恐怕要在更为复杂的抽象派艺术画作上好好费点力气,估计没个十年八年可能出不了师。
第三,采用极端“打码”。马赛克图片之所以能被“还原”,一方面在于分辨率降低的程度不够,二是打码之后的图片仍然会具备一定量的原图特征。那么,想要不被认出来,干脆就粗暴地遮盖吧。往脸上贴个黑条、打个白光,或者想要表达情绪的话盖个大表情包之类的,人工智能应该是没有办法了。但是这招还是谨慎使用,毕竟相较一个大黑条在视频上飘来飘去,还是马赛克舒服一点。
当然,面对马赛克消除技术我们也不必过于焦虑和紧张。一方面其技术成熟度还远远不够,目前还局限于对人脸的识别“还原”,文字、商标等尚未涉及;另一方面图像模糊清晰化技术在很多场景性都是有积极意义的,比如刑侦案件中关键图片的复原、考古资料的清晰化,甚至家里翻新个老照片等。
与模糊图片清晰化处理相比,显然破解马赛克是最难的一关。如果连马赛克都能被斩于马下,那日常的图片、视频的高清还原则更是不在话下。况且,如果最终马赛克消除技术真的成熟,由于其能轻易戳穿隐私,势必也将面临法律、道德层面的制约。
所以,在制约得当的情况下,马赛克这种东西,该打还是得打。
领取专属 10元无门槛券
私享最新 技术干货