展开型生成对抗网络
本研究论文证明生成式对抗网络的不稳定性和漏模现象源自鉴别器在高位空间内的特殊功能形状,提出了多种正则化目标的解决方案从而实现生成模型的稳定训练并解决数据生成分布的漏模问题。
Dec, 2016
本文提出了一种新的 GAN 框架,名为进化生成对抗网络 (E-GAN),该框架使用不同的对抗训练目标作为突变操作,通过进化一群生成器来适应环境 (判别器) 以实现稳定的 GAN 训练和改进的生成能力,并利用评估机制来衡量生成样本的质量和多样性,从而始终保留最佳基因用于进一步的训练,从而提高了 GAN 的整体训练效果和生成性能。
Mar, 2018
本文综述了生成模型的最新应用 —— 生成对抗网络(GAN)及其在计算机视觉和机器学习领域的实际应用,讨论了 GAN 训练中的困难和障碍,并调查了不同研究者提出的训练方案,以求实现 GAN 的稳定训练,最后探讨了与该主题相关的新问题和研究方向。
Jun, 2020
本研究以新的数据生成过程为基础,揭示了生成对抗网络(GAN)生成器模式崩溃的驱动因素是判别器对先前样本的分类准确性的遗忘,即连续学习中的灾难性遗忘现象。为了解决此问题,我们引入了一种自适应生成额外判别模式的训练方法,可以减轻模式崩溃并提高 GAN 评估的标准度量。
Dec, 2021
本文提出了一种通过在小的邻域内促进局部鲁棒性来提高生成对抗网络的泛化能力的方法,并在 CIFAR-10 数据集上的实验表明,该鲁棒性生成对抗网络能够显著而一致地改善五个基线模型。
Apr, 2020
本文提出了一种名为 ' 双重生成对抗网络 ' 的方法,通过对判别器进行对偶操作,使其与生成器协同工作,来解决生成对抗网络训练中的不稳定性问题。同时,针对线性和非线性鉴别器,提出了相应的解决方案。
Jun, 2017
本文通过分析实际情景下 GAN 的泛化能力,证明了原始 GAN 的损失函数训练得到的鉴别器的泛化能力较差,并提出了一种零中心梯度惩罚策略以改善鉴别器的泛化能力,并保证 GAN 的收敛和泛化。通过在合成和大规模数据集上的实验,验证了理论分析的正确性。
Feb, 2019
通过渐进增加模型层数的方法,生成对抗网络在训练中实现速度和稳定性的提升,并取得了空前的图像质量和变异性,同时提出了新的 GAN 结果评估指标,取得实验成功。(keywords 中包含:生成对抗网络、逐步增长、图像质量、Inception 分数、实现细节等)
Oct, 2017