树形变分自编码器
本文提出了一种层次非参数变分自编码器模型,以结合树状结构的贝叶斯非参数先验和变分自编码器来实现无限灵活性的潜在表征空间,进而在视频表征学习上取得更好的效果。
Mar, 2017
本文利用 Poincaré 球模型的超几何结构作为潜变量空间,研究了 VAE 在这个空间的运用,该方法在嵌套数据结构下表现出色,并展现了超几何结构对于 VAE 的优越性。
Jan, 2019
我们研究了一种变分自编码器的变体,其中顶层离散的潜变量是一个超结构。我们的超结构是多个超级潜变量的树结构,并且可以自动从数据中学习。与以往的深度学习方法不同,LTVAE 可以生成多个数据分区,每个分区都由一个超级潜变量给出。这是由于高维数据通常具有许多不同的自然方面,可以用多种方式进行有意义的划分。
Mar, 2018
本文介绍一种基于变分推断的分层生成过程的因式分解分层变分自编码器(FHVAE)模型,该模型在许多语音应用方面已被证明可行,但其原始论文中提出的训练算法不适用于规模更大的数据集。本文提出了一种分层采样训练算法来解决这一问题,并对不同类型的数据集进行了全面评估,证明了我们提出的算法对所有数据集都表现出所需的特性。
Apr, 2018
本研究提出了一种基于深度潜在随机变量的自然图像生成模型,其采用新型分布称为修正高斯,其中采用类似 spike-and-slab 的稀疏性,保持了有效的随机梯度变分推断的可微性;通过一个结构化后验分布估计函数的近似,提出了一种新型结构化变分近似方法,避免常规均场假设,并保持了生成模型的先验依赖关系,从而实现了具有许多层潜在随机变量的深度模型的联合训练。
Feb, 2016
本文提出了一种新的推断模型 ——“阶梯式变分自动编码器”,并利用逐步添加的近似似然校正生成分布,在生成模型中实现了更深更分布的隐变量层次结构,提供了前沿的预测性能和更紧的下界。
Feb, 2016
本文提出了使用 Dirichlet 优先的 DirVAE 模型,利用随机梯度法来推论模型参数,解决了潜变量坍塌问题,并在 MNIST,OMNIGLOT,和 SVHN 等数据集上进行了半监督和监督分类任务的实验,结果表明 DirVAE 模型在生成的潜在表达方面与其它基线模型相比具有最佳的对数似然,并且没有出现基线模型出现的坍塌问题,同时,对比基线模型,利用 DirVAE 模型学到的潜在表达还能够实现更好的半监督和监督分类性能。
Jan, 2019
本文介绍了一种新的变分自编码器模型 MusicVAE,利用层次化解码器结构用于序列数据建模,解决了长程序列结构状态建模的问题,并实现了更好的采样、插值和重构表现。
Mar, 2018
本文提出可变图自编码器 (VGAE) 框架,用于处理基于变分自编码器 (VAE) 的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络 (GCN) 编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
Nov, 2016
该研究提出了基于相关变量分布的 CVAEs 方法来学习高维数据的潜在表示。通过对无向相关图的所有最大有向无环子图的可计算较低限的平均值来解决相关先验带来的不可计算问题,证明了该方法在公共基准评级数据集的匹配和链接预测,以及合成数据集上的谱聚类中的有效性。
May, 2019