使用多个随机投影稳定 GAN 训练
本文提出了一种新方法来稳定地训练生成式对抗网络,通过使用过滤后的真实数据分布和生成数据分布来训练,其中过滤可以通过将任意分布的样本添加到真实数据分布中来实现,同时学习添加样本的过程以挑战辨别器,结果显示该方法稳定有效。
Jun, 2019
通过引入一种简单的方法,使真实数据分布经过一个‘透镜’传达给辨别器,让生成器逐步揭示出更多细节特征,改善了 GAN 训练的质量、稳定性和收敛速度,对各种 GAN 架构如 DCGAN、LSGAN、WGAN-GP 都可行。
Feb, 2018
提出了一种基于多个鉴别器网络来训练生成器的创新框架,通过更新分配给每个判别器的混合权重来反映生成器的进展情况,实验结果表明能够通过学习曲线来提高样本的质量和多样性。
Jul, 2018
通过渐进增加模型层数的方法,生成对抗网络在训练中实现速度和稳定性的提升,并取得了空前的图像质量和变异性,同时提出了新的 GAN 结果评估指标,取得实验成功。(keywords 中包含:生成对抗网络、逐步增长、图像质量、Inception 分数、实现细节等)
Oct, 2017
本文通过分析实际情景下 GAN 的泛化能力,证明了原始 GAN 的损失函数训练得到的鉴别器的泛化能力较差,并提出了一种零中心梯度惩罚策略以改善鉴别器的泛化能力,并保证 GAN 的收敛和泛化。通过在合成和大规模数据集上的实验,验证了理论分析的正确性。
Feb, 2019
本篇论文提出了一种基于随机投影的生成模型,该模型较传统的 GAN 模型更加稳定和精确,采用的 Wasserstein 距离作为度量计算生成样本的真实性,可以得到更准确的生成结果。
Mar, 2018
从在线持续学习的角度出发,提出了一种新颖的 GAN 方法,通过将生成的数据视为流来训练鉴别器模型,并自动检测其阻塞并动态遮罩其特征,使其能够适应临时变化的生成数据分布。实验结果表明,该方法优于现有的最先进方法。
Jun, 2023
在生成对抗网络中引入对抗性 Dropout,其中在每个批次结束时,以一定概率省略或退出每个判别器的反馈,从而迫使单个生成器不再只满足单一的判别器,而是满足判别器的动态集合,这导致了产生更加广义的生成器,促进了生成样本的多样性,并避免了 GAN 中经常发生的 mode collapse 问题。并且,通过实验证明了所提出的框架 Dropout-GAN 提高了样本多样性,消除了 mode collapse 并稳定了训练。
Jul, 2018
本文提出了一种名为 ' 双重生成对抗网络 ' 的方法,通过对判别器进行对偶操作,使其与生成器协同工作,来解决生成对抗网络训练中的不稳定性问题。同时,针对线性和非线性鉴别器,提出了相应的解决方案。
Jun, 2017