分层 VampPrior 变分公平自编码器
研究如何学习能保留数据中大部分信息且对于某些噪声或敏感变化因素具有不变性的表示形式,提出了一种基于变分自编码器的模型,包括鼓励灵敏因素和潜在因素独立的优先知识和基于 “最大均值差异”(MMD)的附加惩罚项,实验证明该方法比以前的工作更有效。
Nov, 2015
本文提出了一种层次非参数变分自编码器模型,以结合树状结构的贝叶斯非参数先验和变分自编码器来实现无限灵活性的潜在表征空间,进而在视频表征学习上取得更好的效果。
Mar, 2017
本文提出了在变分自编码器中学习分层先验以避免标准正态先验分布造成的过度规则化。为了激励数据的具有信息的潜在表示,我们将学习问题公式化为带有约束的优化问题,并将 Taming VAEs 框架扩展为两层分层模型。我们引入了基于图形的插值方法,该方法显示所学习的潜在表示的拓扑结构对应于数据流形的拓扑结构,并呈现了几个例子,在这些例子中,优先考虑的是潜在表示的所需属性,例如平滑性和简单的解释因素。
May, 2019
本研究提出了一种基于不同层级的数据表征的公平表征学习方法,通过堆叠不同的自编码器在不同的潜在空间强制执行公平性,更好地满足公平度量标准并提高数据表征的公平性。
Jul, 2021
提出了通过限制种群信息的编码来缓解变分自编码器为基础的推荐系统中的歧视问题的新方法,并对这些方法进行了评估,可以为未在训练数据中表示的用户提供公平的推荐。
Aug, 2023
本文提出了一个框架,利用结构化图形模型在变分自动编码器(VAEs)的编码器中导出可解释的表达,使得在给定图形模型的结构限制下执行推理,并使用深度生成模型处理高维度的杂乱领域变得更容易。同时在无监督和半监督的情况下,通过变分目标进行端对端的学习。
Nov, 2016
本研究提出了一种基于深度潜在随机变量的自然图像生成模型,其采用新型分布称为修正高斯,其中采用类似 spike-and-slab 的稀疏性,保持了有效的随机梯度变分推断的可微性;通过一个结构化后验分布估计函数的近似,提出了一种新型结构化变分近似方法,避免常规均场假设,并保持了生成模型的先验依赖关系,从而实现了具有许多层潜在随机变量的深度模型的联合训练。
Feb, 2016
通过渐进式学习独立层级表示,本文提出了一种策略来提高 Deep Generative Models 如 Variational Auto-Encoder 的去纠缠性能,该模型从最抽象的表示开始学习,并逐渐增加网络结构以介绍不同层次的表示。在两个基准数据集上,本文通过三个去纠缠度量定量地证明了所提出模型相比于现有作品的改进,包括我们提出的补充相互信息差度量。我们提供了定性和定量的证据,论证了学习进程如何提高分解成层级表示的性能。本文通过同时利用层级表示学习和渐进式学习的优势,是我们目前发现的第一次尝试通过逐步增加 VAE 的能力来提高去纠缠性。
Feb, 2020
本文介绍一种基于变分推断的分层生成过程的因式分解分层变分自编码器(FHVAE)模型,该模型在许多语音应用方面已被证明可行,但其原始论文中提出的训练算法不适用于规模更大的数据集。本文提出了一种分层采样训练算法来解决这一问题,并对不同类型的数据集进行了全面评估,证明了我们提出的算法对所有数据集都表现出所需的特性。
Apr, 2018
本文利用 Poincaré 球模型的超几何结构作为潜变量空间,研究了 VAE 在这个空间的运用,该方法在嵌套数据结构下表现出色,并展现了超几何结构对于 VAE 的优越性。
Jan, 2019