对抗回馈循环
从在线持续学习的角度出发,提出了一种新颖的 GAN 方法,通过将生成的数据视为流来训练鉴别器模型,并自动检测其阻塞并动态遮罩其特征,使其能够适应临时变化的生成数据分布。实验结果表明,该方法优于现有的最先进方法。
Jun, 2023
本文提出了一种自洽学习的框架,利用生成对抗网络的生成模型和判别模型的博弈优化,使两者协同训练,避免了 GAN 训练不稳定的问题,并在句子语义匹配问题上实现了较好的性能。
Mar, 2023
提出了一种基于多个鉴别器网络来训练生成器的创新框架,通过更新分配给每个判别器的混合权重来反映生成器的进展情况,实验结果表明能够通过学习曲线来提高样本的质量和多样性。
Jul, 2018
研究反对派深度学习中的两个重要概念 - 对抗性训练和生成对抗性网络(GAN),这些概念可以相互增强并开发出一种名为 Rob-GAN 的框架,旨在同时提高 GAN 训练的收敛速度、合成图像的质量和鉴别器在强对抗性攻击下的强度。
Jul, 2018
该研究提出了一种新的方法来减少 GANs 中的模式坍塌问题,即通过引入一种通用的置换不变鉴别器架构来训练一个预测混合批的真假样本比例的不变鉴别器得分来代替传统方式评估单个样本的鉴别器。实验证明,在两个合成数据集上,这种方法有效地减少了模式坍塌,而在 CIFAR10 和 CelebA 数据集上得到了良好的定性和定量结果。
Jun, 2018
通过引入一种简单的方法,使真实数据分布经过一个‘透镜’传达给辨别器,让生成器逐步揭示出更多细节特征,改善了 GAN 训练的质量、稳定性和收敛速度,对各种 GAN 架构如 DCGAN、LSGAN、WGAN-GP 都可行。
Feb, 2018
在生成对抗网络中引入对抗性 Dropout,其中在每个批次结束时,以一定概率省略或退出每个判别器的反馈,从而迫使单个生成器不再只满足单一的判别器,而是满足判别器的动态集合,这导致了产生更加广义的生成器,促进了生成样本的多样性,并避免了 GAN 中经常发生的 mode collapse 问题。并且,通过实验证明了所提出的框架 Dropout-GAN 提高了样本多样性,消除了 mode collapse 并稳定了训练。
Jul, 2018
本文提出了一种协同抽样方案,使得生成器和鉴别器通过在生成器的特定层使用梯度更新来优化生成样本,通过实验验证在合成和图像数据集上,这种方法可以在定量和定性上提高生成的样本,提供了 GAN 抽样中的一种新的自由度。
Feb, 2019