本文介绍了生成对抗网络(GANs)的算法框架,将其与隐式生成模型的学习算法相联系,提出了基于密度比估计的方法并借此引导观察者更深层次地思考生成模型。
Oct, 2016
本文提出了将生成式对抗网络(GANs)视为隐式模型的一种方法,基于生成器和判别器的相互作用弱化了显式的似然值评估,从而在有向无环图的结构模型中实现了贝叶斯后验推理和模型学习。
Dec, 2016
本文研究了生成对抗网络在逼近目标分布时的两个基本问题:限制鉴别器家族对近似质量的影响和不同目标函数的收敛条件与分布收敛之间的关系。定义了对抗分歧的概念,证明了使用受限制的鉴别器家族具有矩匹配效应,并且对于严格对抗性分歧的目标函数,证明了目标函数上的收敛蕴含着弱收敛。
May, 2017
本文研究了生成对抗网络(GAN)如何从有限样本中学习概率分布,得到了 GAN 在一组 H"older 类定义的积分概率度量下的收敛速度和 Wasserstein 距离特殊情况下的学习率,并证明了当网络结构适当选择时,GAN 能够自适应地学习低维结构或具有 H"older 密度的数据分布。特别是对于集中在低维集合周围的分布,我们展示了 GAN 的学习速率不取决于高环境维度,而取决于较低的内在维度。我们的分析基于一种新的神谕不等式,将估计误差分解为生成器和鉴别器逼近误差和统计误差,这可能是具有独立研究价值的。
May, 2021
本文通过分析数学和统计学特性,研究生成式对抗网络与 Jensen-Shannon 散度的深刻联系,并提供鉴别器族群的逼近论证及样本估计分布的大样本性质,特别地证明了中心极限定理。
Mar, 2018
通过设计 BiGANs 模型实现 GANs 的逆向学习与无监督特征学习以及其在辅助监督鉴别任务中的有效性。
May, 2016
GANs 的统计一致性研究:通过导出有限样本集中不等式,扩展了 $(f,\Gamma)$-GANs 理论的适用领域,同时在适当的极限情况下,与基于积分概率度量的 GANs 结果相符,并展现出在多个应用中提供提升性能的能力。
Jun, 2024
本研究讨论了与 G(生成器)相关的大多数损失函数的属性,表明这些损失函数并不是发散的,并且不具有发散的期望平衡。研究结果显示, GANs 不符合发散最小化理论,并且形成了比先前假设的模型更广泛的模型范围。
Sep, 2018
本文提出了一种不依赖于传统极小 - 极大公式的生成式对抗方法理论,并展示了当存在强的辨别器时,通过每个功能性梯度步骤,可以学到一个好的生成器,使得真实数据和生成数据的分布的 KL 散度改善,直到收敛于零,并基于该理论,提出了一种新的稳定的生成式对抗方法,同时提供了从这个新的视角对原始 GAN 的理论洞见,最终,针对图像生成的实验展示了我们的新方法的有效性。
Jan, 2018
本文旨在为数学家提供适用的 GANs 理论解释,概述 GANs 的训练问题和拓扑学和博弈论视角如何贡献于我们理解和实践 GANs 的技术的正面和反面结果。
Jun, 2018