GAN 生成器之间的共享损失
本文提出了一种名为 Mixture GAN (MGAN)的新方法,该方法采用多个生成器的混合训练,旨在克服 mode collapsing 问题,通过理论分析得出结论,证明了在平衡状态下,多个生成器的分布和数据分布之间的 Jensen-Shannon 差异最小,生成器之间的 Jensen-Shannon 差异最大,从而有效地避免了 mode collapsing 问题,能够在多项实验中取得明显的优势。
Aug, 2017
本研究以新的数据生成过程为基础,揭示了生成对抗网络(GAN)生成器模式崩溃的驱动因素是判别器对先前样本的分类准确性的遗忘,即连续学习中的灾难性遗忘现象。为了解决此问题,我们引入了一种自适应生成额外判别模式的训练方法,可以减轻模式崩溃并提高 GAN 评估的标准度量。
Dec, 2021
本文旨在为数学家提供适用的 GANs 理论解释,概述 GANs 的训练问题和拓扑学和博弈论视角如何贡献于我们理解和实践 GANs 的技术的正面和反面结果。
Jun, 2018
提出了一种基于多个鉴别器网络来训练生成器的创新框架,通过更新分配给每个判别器的混合权重来反映生成器的进展情况,实验结果表明能够通过学习曲线来提高样本的质量和多样性。
Jul, 2018
提出了一种新的深度生成模型 —— 多对抗生成网络(GMAN),以实现高质量图像的生成,相比标准 GAN,使用了多个判别器进行训练,无需调整损失函数,实现了更快、更有效的训练。
Nov, 2016
本文提出了一种名为双判别器生成对抗网络(D2GAN)的生成对抗网络算法,该算法使用 KL 散度和反 KL 散度,避免了多峰性分布的崩塌问题,并在广泛的实验中证明了与最新 GAN 算法相比的竞争和卓越性能。
Sep, 2017
在生成对抗网络中引入对抗性 Dropout,其中在每个批次结束时,以一定概率省略或退出每个判别器的反馈,从而迫使单个生成器不再只满足单一的判别器,而是满足判别器的动态集合,这导致了产生更加广义的生成器,促进了生成样本的多样性,并避免了 GAN 中经常发生的 mode collapse 问题。并且,通过实验证明了所提出的框架 Dropout-GAN 提高了样本多样性,消除了 mode collapse 并稳定了训练。
Jul, 2018
本文提出了一种自洽学习的框架,利用生成对抗网络的生成模型和判别模型的博弈优化,使两者协同训练,避免了 GAN 训练不稳定的问题,并在句子语义匹配问题上实现了较好的性能。
Mar, 2023
本文提出了一种新的训练框架 Generative Adversarial Parallelization,通过交换鉴别器,使多个 GAN 同时训练,消除了生成器和鉴别器之间的紧密耦合,从而提高了收敛性和模态覆盖率,并提出了改进的 Generative Adversarial Metric,可以评分单个 GAN 或其在 GAP 模型下的集合。
Dec, 2016