对抗生成网络(GAN),其实嘛,就是两个神经网络,一个用于判断数据是真实的数据还是另一个网络自己生成的,而另一个网络的目标就是生成假的数据来欺骗第一个网络
今天按照书里的练习,写了一个简单的GAN,判别网络和生成网络都使用了三层卷积层,对MNIST数据集学习生成书写数字图像。MNIST数据集实际上又0~9共10个种类的图像,把原始数据都标记成真数据,把生成网络生成的数据都标记成假数据,有一点这里自己没有研究过,就是对于生成网络来说,0~9这几个数字是否当中某几个数字更容易欺骗判别网络?如果是这样的话,在评价的时候,就会收到随机生成的初始噪音的影响了吧?
这是第1次迭代生成的图片
这是第30次迭代生成的图片
这是生成模型的Loss曲线,整体是震荡下降的,不过不知道为啥第16代的Loss最低之后就再也没有下降到那么低?
领取专属 10元无门槛券
私享最新 技术干货