生成对抗网络的 “可操控性
本文提出了一种通过在小的邻域内促进局部鲁棒性来提高生成对抗网络的泛化能力的方法,并在 CIFAR-10 数据集上的实验表明,该鲁棒性生成对抗网络能够显著而一致地改善五个基线模型。
Apr, 2020
本文分析并强调 GAN 模型的公平性问题,提出了针对样本组的 GAN 模型调节或采用集成方法的解决方案,避免因训练过程中对某些群体偏好而测试时不能统一生成不同群体的数据分布。
Mar, 2021
本文通过分析实际情景下 GAN 的泛化能力,证明了原始 GAN 的损失函数训练得到的鉴别器的泛化能力较差,并提出了一种零中心梯度惩罚策略以改善鉴别器的泛化能力,并保证 GAN 的收敛和泛化。通过在合成和大规模数据集上的实验,验证了理论分析的正确性。
Feb, 2019
通过对生成对抗网络的训练,我们发现它可能没有良好的泛化特性,并且展示了训练成功不代表训练的分布接近目标分布,但是泛化确实存在于弱度量的神经网络距离中。我们证明了当生成器容量和训练集大小适中时,鉴别器 / 生成器博弈存在近似的纯平衡,这启发了 MIX+GAN 协议的存在可以与任何现有的 GAN 训练相结合,并在实践中改善了其中一些。
Mar, 2017
通过引入一种简单的方法,使真实数据分布经过一个‘透镜’传达给辨别器,让生成器逐步揭示出更多细节特征,改善了 GAN 训练的质量、稳定性和收敛速度,对各种 GAN 架构如 DCGAN、LSGAN、WGAN-GP 都可行。
Feb, 2018
本文旨在为数学家提供适用的 GANs 理论解释,概述 GANs 的训练问题和拓扑学和博弈论视角如何贡献于我们理解和实践 GANs 的技术的正面和反面结果。
Jun, 2018
通过训练 GAN 在人工数据集上,我们发现混合多个 GANs 相比于使用更深、更宽、更复杂的单个生成器会获得更好的结果。在 CIFAR-10 数据集上,我们的方法在流行的指标(IS 和 FID)上明显优于现有技术的表现。
Jul, 2020
本文综述了生成模型的最新应用 —— 生成对抗网络(GAN)及其在计算机视觉和机器学习领域的实际应用,讨论了 GAN 训练中的困难和障碍,并调查了不同研究者提出的训练方案,以求实现 GAN 的稳定训练,最后探讨了与该主题相关的新问题和研究方向。
Jun, 2020