生成对抗网络(GANs)的收敛问题
本文分析并强调 GAN 模型的公平性问题,提出了针对样本组的 GAN 模型调节或采用集成方法的解决方案,避免因训练过程中对某些群体偏好而测试时不能统一生成不同群体的数据分布。
Mar, 2021
通过博弈论视角,使用历史混合模型对深度神经网络进行训练的 Fictitious GAN 方法可以有效地解决收敛问题,从而使生成器的输出分布在渐进意义下收敛于数据样本的分布。
Mar, 2018
提出了一种用于离散数据训练生成式对抗网络(GANs)的方法,称为边界寻找 GANs(BGANs)。该方法利用鉴别器估计的差异度量计算生成样本的重要性权重,为训练生成器提供了策略梯度,并证明了该算法在离散图像和字符基自然语言生成方面具有很好的效果。此外,目标函数可以扩展到连续的数据集,可用于提高训练的稳定性,并证明了在 Celeba、LSUN 卧室场景理解和 Imagenet 数据集上,该方法的实用性。
Feb, 2017
我们研究了基于一类包含鉴别器和生成器神经网络的函数的高维分布学习模型中生成对抗网络(GAN)的误差收敛速度,并利用 Talagrand 不等式和 Borel-Cantelli 引理建立了一种紧密的误差收敛速度。
Oct, 2023
生成对抗网络(GANs)是在多个领域中生成逼真、多样化数据的强大工具。本研究综述了 GANs 的潜在架构、验证指标和应用领域,并探讨了 GAN 与 Jensen-Shannon 散度之间的深刻联系以及 GAN 框架的最优性特征。对 GAN 变体的效率、模型架构以及训练障碍和解决方案进行了评估,并详细讨论了 GAN 与 Transformer、物理信息神经网络、大型语言模型和扩散模型等新开发的深度学习框架的整合。最后,揭示了该领域的若干问题和未来研究方向。
Aug, 2023
本文从算法、理论和应用三个方面综述了各种生成对抗网络(GANs)算法的动机、数学表示和结构特点,比较了不同 GANs 方法的共同性和差异,探讨了 GANs 相关的理论问题以及在图像处理、自然语言处理、医疗领域、数据科学等领域的应用,并指出了未来 GANs 的开放性研究问题。
Jan, 2020