双重 GANs
本文提出了一种名为双判别器生成对抗网络(D2GAN)的生成对抗网络算法,该算法使用 KL 散度和反 KL 散度,避免了多峰性分布的崩塌问题,并在广泛的实验中证明了与最新 GAN 算法相比的竞争和卓越性能。
Sep, 2017
本文介绍了一种用于分析生成对抗网络的凸对偶框架,提出在约束条件为凸集时,通过最小化生成模型与经过判别器的数据分布匹配但是被期望的矩所限制的分布的 JS 散度,来得到生成模型。同时,将此框架应用于 f-GAN 和 Wasserstein GAN 网络,提出了一种新的混合 JS 散度和 Wasserstein 距离的分布度量用于正则化中。
Oct, 2018
通过凸对偶的方法分析了两层神经网络判别器的 Wasserstein GAN 的训练,展现了 Wasserstein GAN 在哪些条件下可以通过凸优化完全解决以及可以被表示为凸凹博弈,证明了这个凸对偶解释的威力,并在 CelebA 图像生成中用于线性生成器和二次激活判别器的渐进式训练。
Jul, 2021
本研究将生成式对抗网络的 minimax 博弈与一个凸优化问题中的 Lagrangian 函数的鞍点联系起来,并展示了标准 GAN 训练过程和凸优化的原始 - 对偶次梯度方法之间的联系。此外,本研究提出了一种新的目标函数来训练模型,以解决模式塌陷和生成多样化的问题。实验结果显示了该方法的有效性。
Feb, 2018
本文旨在为数学家提供适用的 GANs 理论解释,概述 GANs 的训练问题和拓扑学和博弈论视角如何贡献于我们理解和实践 GANs 的技术的正面和反面结果。
Jun, 2018
本文通过分析实际情景下 GAN 的泛化能力,证明了原始 GAN 的损失函数训练得到的鉴别器的泛化能力较差,并提出了一种零中心梯度惩罚策略以改善鉴别器的泛化能力,并保证 GAN 的收敛和泛化。通过在合成和大规模数据集上的实验,验证了理论分析的正确性。
Feb, 2019
研究了使用基于核的判别器训练生成式对抗网络的梯度下降 - 上升过程,通过线性化的非线性动态系统描述方法,探究了学习率、正则化和核判别器带宽对该过程的局部收敛速度的影响,提出了系统收敛、振荡和发散的阶段转换点,并通过数值模拟验证了结论。
May, 2023
提出了一种基于多个鉴别器网络来训练生成器的创新框架,通过更新分配给每个判别器的混合权重来反映生成器的进展情况,实验结果表明能够通过学习曲线来提高样本的质量和多样性。
Jul, 2018
通过引入一种简单的方法,使真实数据分布经过一个‘透镜’传达给辨别器,让生成器逐步揭示出更多细节特征,改善了 GAN 训练的质量、稳定性和收敛速度,对各种 GAN 架构如 DCGAN、LSGAN、WGAN-GP 都可行。
Feb, 2018