通过不变统计损失训练隐式生成模型
该论文研究了无监督学习中生成模型的训练方法,提出了一种在对抗网络与似然训练之间进行混合训练的方法,其中使用深度可逆变换来解决概率和逆变换之间的冲突,实现了更好的生成样本和更高的似然性评估。
Jan, 2019
本文提出了一种新的潜在数据增强方法,利用无监督的学习方式在低数据量的情况下,针对生成模型中容易发散的问题进行了优化,实现了有效而稳定的训练,并生成了高质量的样本。实验结果显示,该方法在少样例学习生成任务中取得了很好的效果。
Dec, 2021
本文综述了现有算法之间的联系,包括广泛使用的变分自编码器、以对抗方式学习的推断、运算符变分推断、基于生成式对抗网络的图像重建等,提出了新的算法框架,并基于密度比估计或去噪等方法展示了实际的推断算法。
Feb, 2017
本文对生成对抗网络(GAN)进行了分析,特别是统计推理这一过程的理论特征,提出了一种简单形式的 GAN,称为受限 f-GANs,发现线性 KL-GANs 的最优生成器所推断出的分布是最大似然与矩法解的有趣组合。
Sep, 2018
尽管生成对抗网络(GANs)在实证方面取得了显著的成功,但其统计准确性的理论保证仍然相对悲观。本论文试图在理论和 GANs 以及双向 GANs(BiGANs)的实践之间架起桥梁,通过推导出关于估计密度的统计保证,以数据的固有维度和潜在空间为基础。
Jan, 2024
本文提出了将生成式对抗网络(GANs)视为隐式模型的一种方法,基于生成器和判别器的相互作用弱化了显式的似然值评估,从而在有向无环图的结构模型中实现了贝叶斯后验推理和模型学习。
Dec, 2016
本研究通过分析群不变 GAN 模型在样本复杂度方面的改进,量化表明当学习群不变分布时,所需样本数量随着群体大小的幂次下降,这一幂次取决于分布支撑的固有维度。结果是第一次为群不变生成模型,特别是 GAN 模型提供了统计估计,并可为其他群不变生成模型的研究提供参考。
May, 2023
本文从判别函数最优梯度含义化角度研究生成对抗网络 (GANs) 的收敛性,并表明通过添加 Lipschitz 约束可以消除由于梯度缺乏信息而导致的问题,因此提出了一类名为 Lipschitz GANs (LGANs) 的 GANs,实验证明 LGANs 的样本质量相较于 Wasserstein GANs 更高且更加稳定。
Feb, 2019
生成对抗网络(GAN)已经成为一种生成高保真数据的强大工具,并且采用监督方法提出了 Monte Carlo GAN(MCGAN)算法,以解决现有方法在生成器训练上缺乏监督导致的振荡与性能不佳的问题,并且数值结果表明 MCGAN 在质量、准确性、训练稳定性和学习潜在空间等方面明显且一致地改进了现有的 GAN 模型。
May, 2024