对抗消息传递用于图形模型
介绍了 Adversarial Variational Bayes 技术,可以用于训练具有任意表达力的推理模型的变分自编码器,并将其与生成对抗网络建立起了原则上的联系。
Jan, 2017
本文综述了现有算法之间的联系,包括广泛使用的变分自编码器、以对抗方式学习的推断、运算符变分推断、基于生成式对抗网络的图像重建等,提出了新的算法框架,并基于密度比估计或去噪等方法展示了实际的推断算法。
Feb, 2017
引入Adversarial Variational Optimization来解决计算机模拟器密度函数难以处理的问题,学习提议分布以最小化合成数据的边缘分布和实际数据经验分布之间的差异,适用于离散数据和连续数据的模拟器。
Jul, 2017
本研究提出了基于对抗习得迭代过程的GibbsNet方法,用于学习数据和潜变量之间的联合分布,具有快速高效的优点。GibbsNet方法不需要显式指定潜变量的先验分布,即可实现属性预测、类条件生成和联合图像属性建模等多种任务。实验表明,GibbsNet方法能够学习到更复杂的联合分布,从而实现高效的图像修复和迭代精细化。
Dec, 2017
本文揭示了Variational Autoencoders (VAEs)的局限性,它们无法稳定地学习潜在空间和可见空间中的边缘分布,因为学习过程是通过匹配条件分布进行的。同时,文章通过大规模的评估VAE-GAN混合模型并分析类概率估计对分布学习的影响,得出VAE-GAN混合模型在可扩展性、评估和推理方面比VAE更加困难,无法提高GAN的生成质量。
Feb, 2018
提出了一种名为Graphical Generative Adversarial Networks(Graphical-GAN)的模型,结合了贝叶斯网络和生成性对抗网络的能力来建模结构化数据。引入了一个结构化的识别模型来推断给定观测值的潜在变量的后验分布,并将期望传播(EP)算法广义化,以同时学习生成模型和识别模型。最后,提出了两个Graphical-GAN的重要实例,即高斯混合GAN(GMGAN)和状态空间GAN(SSGAN),可分别成功学习视觉数据集的离散和时间结构。
Apr, 2018
本文利用拉丁变量模型和贝叶斯推理方法,提出了一种隐式拉丁变量模型的变分推理算法,用于解决缺少成对数据时的领域间对应关系的学习问题,并证明了该算法是近似贝叶斯推理方法的CYCLEGAN模型的特例。
Jun, 2018
本文对生成对抗网络(GAN)进行了分析,特别是统计推理这一过程的理论特征,提出了一种简单形式的GAN,称为受限f-GANs,发现线性KL-GANs的最优生成器所推断出的分布是最大似然与矩法解的有趣组合。
Sep, 2018