首页 > 代码库 > 深度学习(五十四)图片翻译WGAN实验测试
深度学习(五十四)图片翻译WGAN实验测试
图片翻译WGAN实验测试
博客:http://blog.csdn.net/hjimce/article/details/51761865
微博:黄锦池-hjimce
WGAN相比于GAN的优点在于:具有更高的稳定性。在原始的WGAN中,作者通过一堆的理论,提出了WGAN,理论证明n多页,不过代码实现就两行:
(1)去掉了判别网络的判别的概念,在原始的GAN中,判别网络的损失函数为最大化交叉熵损失函数:
也就是说判别网络的输出是一个0~1的概率值,用于表示图片真伪的概率。
然而在WGANs中,fw的输出不需要是一个概率值,这就是为什么作者不把fw称之为判别器的原因,而是把它称作评价器,因为我们压根没有明确的进行训练图片真伪判别。所以fw中,去掉了最后一层的sigmoid激活函数,采用直接真样本与假样本的fw之差作为损失函数。当然生成网络的损失函数也跟着去掉了log
(2)判别网络fw参数裁剪,把判别网络的参数裁剪到了指定的范围-0.01~0.01之间;
(3)学习方法采用RMS;
具体伪代码如下:
为此我们利用文献《Image-to-Image Translation with Conditional Adversarial Networks》的条件对抗网络进行图片生成测试,本文主要实验WGAN和GAN在条件对抗网络中的稳定性实验,下面是原始的GAN在条件对抗网络中的实验结果:
可以看到采用原始的GAN进行训练的时候,生成的图片质量很不稳定,图片清晰度并不是随着迭代的进行,不断的提高。比如第2800次迭代、,生成的图片突然就跑偏了,变得很差,稳定性很差。接着我们看看WGAN的训练结果:
很明显,WGAN生成的过程基本很稳定。
深度学习(五十四)图片翻译WGAN实验测试