基于扩增感知的自监督学习,用于数据有效的 GAN 训练
本文提出一种自适应判别器增广机制,稳定有限数据中生成对抗网络的训练,无需改变损失函数或网络架构,适用于从头开始训练和调优现有 GAN 的情况,并在几个数据集上进行了实证分析,结果表明,仅使用少量的训练图像就可以获得好的结果,通常与 StyleGAN2 的结果相匹配,而使用的图像数量则少了一个数量级。此方法有望扩大 GAN 的应用领域,并发现 CIFAR-10 是一个有限数据基准,在此基础上改进了记录 FID(Fréchet Inception Distance) 由 5.59 到 2.42。
Jun, 2020
本研究提出了一种名为 Differentiable Augmentation(DiffAugment)的方法,该方法通过对真假样本施加各种可导的增强以提高 GAN 的数据效率,有效地稳定训练,导致更好的收敛。实验表明,我们的方法具有一致的收益,可以在各种 GAN 架构和损失函数上进行无条件和条件生成。 DiffAugment 可以在只有 20% 的训练数据情况下,在 CIFAR-10 和 CIFAR-100 上达到并匹配最高预测性能。
Jun, 2020
本文提出了一种新的潜在数据增强方法,利用无监督的学习方式在低数据量的情况下,针对生成模型中容易发散的问题进行了优化,实现了有效而稳定的训练,并生成了高质量的样本。实验结果显示,该方法在少样例学习生成任务中取得了很好的效果。
Dec, 2021
利用对抗性训练和自监督技巧,通过任务的表示学习促进判别器学习有意义的特征表示的全无监督学习方法产生高质量的图像。在相同的条件下,自监督生成对抗网络的表现与有标记数据的生成网络相似。同时,我们还演示了该方法可扩展到一个无条件的图像集中,以实现 FID 为 23.4.
Nov, 2018
通过新的正则化技术 - 逐步增强生成对抗网络(PA-GAN),逐步增加鉴别器的输入或特征空间的任务难度,从而使生成器能够不断地学习,这保留了原始 GAN 目标,不损害鉴别器的最优性并鼓励生成器和鉴别器之间健康的竞争,从而提高了 FID 得分的有效性。
Jan, 2019
本研究提出了 ContraD 方法,将对比性表示学习方案融入生成对抗网络鉴别器中,使得生成器以更强的数据增强方式工作而不会增加训练不稳定性,并且在对比学习中也能受益。实验结果表明,GANs with ContraD 在 FID 和 IS 方面表现更好,还能通过简单的潜在采样诱导许多条件生成模型。
Mar, 2021
本研究使用生成对抗网络(GANs)的目标函数来学习与源数据集不可区分的目标特征,并将其扩展到强制学习通过特征增强在特征空间进行培训的无监督域自适应任务。结果表明,强制进行域不变性和执行特征增强可以导致几个无监督域适应基准测试的优秀或相当的性能。
Nov, 2017
基于生成对抗网络(GAN)的声码器利用对抗鉴别器进行训练,因其快速、轻量和高质量的特点而被广泛用于语音合成。然而,这种数据驱动模型需要大量训练数据,导致数据收集成本高。为了解决这个问题,我们提出了一种基于增强条件鉴别器(AugCondD)的方法,该方法在评估输入语音时考虑了增强状态,从而避免限制原始非增强分布的学习。实验结果表明,AugCondD 能够在有限数据条件下提高语音质量,并在充足数据条件下达到可比较的语音质量。
Mar, 2024
本文提出了一种用于数据增强的生成对抗网络 (DAGAN) 模型,其可帮助神经网络在数据不足的情况下提高泛化能力,实验结果显示在 Omniglot、EMNIST 以及 VGG-Face 数据集中,使用 DAGAN 后精度显著提高,我们同时还使用 DAGAN 增强了匹配网络 (Matching Networks) 的性能。
Nov, 2017