提出了一种自动编码器技术,结合了变分自动编码器与生成式对抗网络,可透过特征表示量测数据空间的相似性,进而以特征误差为基础重新构建数据分布,其具有位移不变性,运用在脸部图像上可提供更优的视觉保真度,并能够学习出抽象且高层次的视觉特征。
Dec, 2015
介绍了变分自编码器(VAE)背后的直觉,解释了其背后的数学原理,并描述了它们的一些经验行为。
Jun, 2016
该论文研究了变分自编码器(VAE)在学习可解释的表示和生成建模方面的出色表现,提供了对其良好性能的解释,阐明了该架构中解码器的局部正交性,从而促进重构和正交性之间的平衡。
Dec, 2018
本文提出了一种基于变分自编码器的生成模型,使用互信息最小化学习与每个标签相关的低维潜空间,并展示了其在特征操作上的实用性。
通过引入第二个参数化的编解码对和一个额外的固定编码器,我们发展了三种 VAE 的变种,并使用神经网络学习编码器 / 解码器的参数来比较这些变种与原始 VAE 的 ELBO 逼近。其中一种变化导致了一个 EUBO,可以与原始 ELBO 一起用于研究 VAE 的收敛性。
Dec, 2022
提出使用变分自编码器和 Transformers 构建两种具有归纳偏置的模型,可将潜在表示中的信息分离成可理解的概念,其中 QKVAE 在转移实验中表现出竞争性能,并展示了明显的优化句法角色分离能力。
May, 2023
该研究提出了基于相关变量分布的 CVAEs 方法来学习高维数据的潜在表示。通过对无向相关图的所有最大有向无环子图的可计算较低限的平均值来解决相关先验带来的不可计算问题,证明了该方法在公共基准评级数据集的匹配和链接预测,以及合成数据集上的谱聚类中的有效性。
May, 2019
本文提出了一种正则化方法来强制 Variational Auto-Encoder 的一致性,通过最小化 Kullback-Leibler(KL)散度来实现;实验结果表明该方法可以改善学习表征的质量并提高其泛化能力。
May, 2021
我们基于智能生成模型,通过设计基于网络的游戏和使用意象隐喻,向高中生介绍 Variational Autoencoders,帮助他们更好地理解 AI,创意艺术和哲学等学科,同时培养相关技能,这一方法在 22 名学生中得到实践证明。
Nov, 2021
利用预测时间下一节点以及基于时间平滑性的模型选择度量,我们提出了一种能够减轻 VAE 学习虚假特征,并能在合成数据集中准确恢复潜在因素的 VAE 架构。
Dec, 2023