This paper studies the rates of convergence for learning distributions
implicitly with the adversarial framework and generative adversarial networks
(GANs), which subsume Wasserstein, Sobolev, MMD GAN, and Genera
本文研究了一类大型损失函数下的非参数密度估计的极小极大收敛速率,并探讨了生成对抗网络中鉴别器网络编码的损失与其它损失函数之间的密切关系,以及选择损失和底层概率密度的光滑性如何共同确定防御策略。同时还讨论了我们的结果对于基于 Deep ReLU 网络的 GAN 训练的影响,以及最小极大统计意义下学习隐式生成模型的相关联系。