GAN——Generative Adversarial Network,是在深度学习界出现比较晚的一类训练方式。叫做对抗生成网络,也被简称为对抗学习。
在这种训练模式下,我们会同时训练两个网络,一个用来判别样本的“真伪”——Discriminator网络,一个用来通过噪声捏造一个样本——Generator网络。最后我们希望通过训练让Generator网络生成的样本中有一半的概率能够被Discriminator网络识别为真,或者称生成能够以假乱真的样本。如果有太大比例的生成样本通过了Discriminator网络的检验,则说明Discriminator网络的判别能力还相当差;反之,则说明Generator的生成能力相当差。
这种场景就好像我们设计了一个世界范围内的乒乓球比赛,两个水平高的人同台竞技。比分基本是应该在11:9这种档次的才算是势均力敌,两者水平很高;11:1、11:2这种的就太悬殊了,至少不能说明失败的选手水平与胜利的选手水平相当。
基于这种理论,在世界范围内有数以万计的人在尝试对这种训练模型进行增强,并通过发论文的方式来表现出自己训练出来的Generator网络有多么强的生成能力。例如:
这就是凭空捏造出来的人脸,它不属于任何一个由照相设备采集的真实个人。
再比如上面这种图,把普通的马给捏造成斑马,或者反过来操作;或者把一副风景画从夏天的样子变成冬天的样子,或者反过来操作。
网上处于各种目的对GAN方式歌功颂德的软文很多,总是用各种惊艳的内容来给我们冲击感。不过只要亲自训练过GAN的人都知道,GAN生成的样本中,虽然是有一半可以通过Discriminator网络的检测,但是就这一半而言仍然不能保证里面的内容是好的。由于深度神经网络本身的“缺陷”(或者叫局限性措辞更温和一点)的问题,本身就会有一些在人看来一眼就能识别出的东西,会被它误判。比如就像下面这种情形,在图片上掺杂一些噪声,就会被神经网络误判为别的物体。
所以,GAN这种方式所产生的“意外”其实相当多,而且到目前为止还没有找到非常可靠的克服手段,我们就盘点一下GAN领域的各种“惨案”吧。
就拿前些日子吵得很火的这个由AI生成的被拍出43.2万美元的画作来说吧。
如果不是右下角写了GAN的评价函数
鬼才能知道这是什么玩意儿。不通过50%以上的脑补环节,你确定这是一个人?
还有上面这一坨一坨的稀饭,恕我实在没办法理解这种用GAN生成的艺术。我还是以善意的态度来揣测这次拍卖,是对人工智能技术的鼓励,而不是不怀好意的韭菜大棚众筹。
你觉得像鸟是吧?请告诉我,你用了几分力气脑补?这么模糊的鸟类,生成出来也无法商用吧?估计就是“视觉中国”也没胆量用这种质量的图片收钱。
再比如这种很像大象的东西,说实在的是有点像连体婴儿大象,而且鼻子也很奇怪……
一个在野外骑独轮车的家伙?好像是……然而这种图给小朋友们看是会伤害他们幼小的心灵的。
这个你看上去觉得还不错是吧?
放大了看一样惊悚啊——两个头的金鱼,黄金眼的猫咪,完全看不出纹理走向的墙壁,真是只可远观。
可怕的是,这种事情GAN网络自己是无法感知到的。想让GAN生成让人放心的内容还有很多路要走,无论是学术层面还是工程层面,都有很多问题需要不断解决。所以,GAN这个方向暂时先流程学术界当玩具好了,做产品的人们还是先用靠谱的方法做好手里的产品。
本文分享自 智能工场AIWorkshop 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!