通过对比鉴别器强化增强训练 GANs
本文提出了 ContraGAN 的方法,利用条件对比损失函数,考虑同一批次中多个图像嵌入之间的关系 (data-to-data relations) 和数据与类的关系 (data-to-class relations)。实验结果表明,ContraGAN 在 Tiny ImageNet 和 ImageNet 数据集上比现有模型分别提高了 7.3% 和 7.7% 的性能表现,并且对比学习有助于解决判别器过拟合的问题。
Jun, 2020
本研究探讨了生成对抗网络(GANs)在不平衡数据集中的应用,旨在增强 GANs 在此类数据集中的性能和稳定性。通过引入一种称为 Damage GAN 的新型网络架构,该架构建立在 ContraD GAN 框架之上,无缝融合了 GANs 和对比学习,我们利用对比学习训练判别器以发展出能够区分所有提供的样本的无监督表示。通过模仿直观的对比学习视觉表示框架(SimCLR),我们提出了一种独特的损失函数,并探索了自我损伤对比学习(SDCLR)的实现,以进一步增强 ContraD GAN 模型的优化。与基准模型,包括深度卷积 GAN(DCGAN)和 ContraD GAN 进行比较评估,证明了我们提出的模型 Damage GAN 在应用于不平衡数据集时在生成的图像分布、模型稳定性和图像质量方面具有明显优势。
Dec, 2023
提出了一种新型的、基于增强现实的自监督辨别器,并利用预测参数作为判别阈值,减弱了旧行的数据不变性,显著提升了数据效率,实验结果优于其他 GANs
May, 2022
本文提出一种自适应判别器增广机制,稳定有限数据中生成对抗网络的训练,无需改变损失函数或网络架构,适用于从头开始训练和调优现有 GAN 的情况,并在几个数据集上进行了实证分析,结果表明,仅使用少量的训练图像就可以获得好的结果,通常与 StyleGAN2 的结果相匹配,而使用的图像数量则少了一个数量级。此方法有望扩大 GAN 的应用领域,并发现 CIFAR-10 是一个有限数据基准,在此基础上改进了记录 FID(Fréchet Inception Distance) 由 5.59 到 2.42。
Jun, 2020
基于生成对抗网络(GAN)的声码器利用对抗鉴别器进行训练,因其快速、轻量和高质量的特点而被广泛用于语音合成。然而,这种数据驱动模型需要大量训练数据,导致数据收集成本高。为了解决这个问题,我们提出了一种基于增强条件鉴别器(AugCondD)的方法,该方法在评估输入语音时考虑了增强状态,从而避免限制原始非增强分布的学习。实验结果表明,AugCondD 能够在有限数据条件下提高语音质量,并在充足数据条件下达到可比较的语音质量。
Mar, 2024
本研究提出了一种名为 AdDA 的自适应数据增强(Adaptive Data Augmentation)方法,通过在训练过程中实时反馈调整数据增强的组合,优化对比学习网络的表示学习效果,并在 ImageNet-100 数据集上进行了测试。
Apr, 2023
本研究系统地研究了不同数据扩增技术在 GAN 训练中的有效性,并提供了关于如何扩增图像以改善生成图像保真度的见解和指南。我们还发现如果在真实图像和生成图像上使用扩增技术,即使只使用原始 GAN,也可以达到与最新技术成果相当的生成质量。如果结合对比损失和一致性正则化等其他扩增技术,生成图像的质量会更进一步提高。最后,我们使用一致性正则化和对比损失来提供了 CIFAR-10 条件生成的新的最先进结果。
Jun, 2020
通过新的正则化技术 - 逐步增强生成对抗网络(PA-GAN),逐步增加鉴别器的输入或特征空间的任务难度,从而使生成器能够不断地学习,这保留了原始 GAN 目标,不损害鉴别器的最优性并鼓励生成器和鉴别器之间健康的竞争,从而提高了 FID 得分的有效性。
Jan, 2019
该研究提出了一种名为 Contrastive Learning with Stronger Augmentations(CLSA)的新的对比学习方法,利用数据扩增引入样本多样性,从而提高检索能力,实验结果表明该方法在 ImageNet 数据集上的表现接近有监督结果。
Apr, 2021