学习变分自动编码器(VAEs)的关键任务是训练生成模型和推理模型,本文提出了一种基于 MAPA 的推理方法,可以高效地估计真实模型的后验分布。初步结果表明,该方法在低维合成数据上能够更好地进行密度估计,并提供了将该方法扩展到高维数据的路线图。
Mar, 2024
本文提出了一个框架,利用结构化图形模型在变分自动编码器(VAEs)的编码器中导出可解释的表达,使得在给定图形模型的结构限制下执行推理,并使用深度生成模型处理高维度的杂乱领域变得更容易。同时在无监督和半监督的情况下,通过变分目标进行端对端的学习。
Nov, 2016
本文提出了针对无向模型的黑盒学习和推理算法,通过使用变分逼近模型 log-likelihood 的上界优化算法,其中重要的是由灵活神经网络表达的 log-partition 参数化函数上界。我们的算法可加速采样,训练广泛类别的混合有向 / 无向模型,并在多个流行生成建模数据集上验证了其有效性。
Nov, 2017
本文提出可变图自编码器 (VGAE) 框架,用于处理基于变分自编码器 (VAE) 的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络 (GCN) 编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
介绍了 Adversarial Variational Bayes 技术,可以用于训练具有任意表达力的推理模型的变分自编码器,并将其与生成对抗网络建立起了原则上的联系。
Jan, 2017
通过将图形模型与深度学习架构组合,我们学习具有两种框架优势的生成模型。我们提出了学习 SVAE 的新算法,并首次证明了 SVAE 处理丢失数据时处理多模态的能力。这些优化创新使 SVAE 能够通过梯度下降法进行学习。
Jun, 2023
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
该研究提出了基于相关变量分布的 CVAEs 方法来学习高维数据的潜在表示。通过对无向相关图的所有最大有向无环子图的可计算较低限的平均值来解决相关先验带来的不可计算问题,证明了该方法在公共基准评级数据集的匹配和链接预测,以及合成数据集上的谱聚类中的有效性。
May, 2019
该研究提出了一种使用图形模型和深度神经网络架构的变分自编码器,能够学习到不同的表示形式,进一步实现半监督学习,其生成的能力和区分能力也得到了充分验证。
Jun, 2017
本文介绍了一种基于随机变分推理 (Variational Inference) 的学习算法,可以为存在潜变量的、具有难以处理的后验分布的连续概率模型提供有效的推理和学习方法,特别是在大型数据集下具有较好的表现,且已经在实验上得到了验证。
Dec, 2013