generative adversarial nets (GANs) are widely used to learn the data sampling
process and their performance may heavily depend on the loss functions, given a
limited computational budget. This study revisits MMD-GAN that uses the maximum
mean discrepancy (MMD) as the loss function for
本文研究了一类大型损失函数下的非参数密度估计的极小极大收敛速率,并探讨了生成对抗网络中鉴别器网络编码的损失与其它损失函数之间的密切关系,以及选择损失和底层概率密度的光滑性如何共同确定防御策略。同时还讨论了我们的结果对于基于 Deep ReLU 网络的 GAN 训练的影响,以及最小极大统计意义下学习隐式生成模型的相关联系。
生成对抗网络(GAN)已经成为一种生成高保真数据的强大工具,并且采用监督方法提出了 Monte Carlo GAN(MCGAN)算法,以解决现有方法在生成器训练上缺乏监督导致的振荡与性能不佳的问题,并且数值结果表明 MCGAN 在质量、准确性、训练稳定性和学习潜在空间等方面明显且一致地改进了现有的 GAN 模型。