使用已学习的相似度度量进行像素外的自编码
本研究提出了一种新颖的方法来构建变分自编码器 (Variational Autoencoder,VAE), 该方法通过 enforced deep feature consistency 的方式替代了传统的像素级别的损失,以充分保留输入数据的空间相关性,产生更自然的视觉效果和更好的感知质量。 对 CelebA 数据集的测试结果表明,我们模型能够优于其他文献中的方法,并且还能够产生能捕捉面部表情语义信息的潜在向量,这些向量可用于实现面部属性预测的最新性能。
Oct, 2016
本研究提出了一种新的深度度量学习模型 TVAE,基于 VAE 模型和三元组损失函数来学习潜在特征表达,实现了对 MNIST 数据集的高准确性识别(95.6%)。
Feb, 2018
本文提出了一种基于变分自编码器和神经自回归模型的简单但原则性的方法来学习全局表示,该方法允许对全局潜在特征进行控制,通过设计相应的架构,可以迫使全局潜在特征丢弃 2D 图像纹理等无关信息,并且通过利用自回归模型作为潜在分布和解码分布,可以大大提高 VAE 的生成建模性能,实现了 MNIST、OMNIGLOT 和 Caltech-101 Silhouettes 密度估计任务的新的最先进结果。
Nov, 2016
本文利用 Poincaré 球模型的超几何结构作为潜变量空间,研究了 VAE 在这个空间的运用,该方法在嵌套数据结构下表现出色,并展现了超几何结构对于 VAE 的优越性。
Jan, 2019
本文提出了一种改进变分自编码器性能的新方法,通过实施生成对抗训练机制,使得 VAE 输出逼真自然的图像;同时,还使用多视图特征提取策略提取有效的图像表示,从而获得了在面部属性预测上最先进性能。
Jun, 2019
本文提出了一种新的表征学习方法,Gromov-Wasserstein Autoencoders(GWAE),通过将 variational autoencoding scheme 与 Gromov-Wasserstein metric 相结合来直接匹配潜变量和数据分布,以实现在不改变其目标的情况下将 meta-priors 引入潜空间。
Sep, 2022
本文提出了一种基于深度神经网络的变分自编码器,使用实值非体积保存变换来准确计算数据的条件似然,采用由少量中间层组成的强大条件耦合层来使其学习效果更好,在图像建模任务上有着不错的表现。
Nov, 2016
本文介绍了一种名为感知生成自编码器的新型生成模型。该模型通过将生成的和目标分布映射到一个潜空间中,并用具有理论依据的数据和潜空间重构损失同时在数据空间和隐空间中强制同步,从而能够在无限制的神经网络体系结构和任意数量的潜在维度上推广可逆生成模型的思想,并且在样本质量方面显著优于传统自编码器和其他基于自编码器的生成模型。
Jun, 2019
本文提出可变图自编码器 (VGAE) 框架,用于处理基于变分自编码器 (VAE) 的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络 (GCN) 编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
Nov, 2016
本研究使用变分自动编码器 (VAE) 和生成式对抗网络 (GAN) 相结合的方法,设计了 M-AAE 算法,在保持面部细节的前提下修改图片特征,通过面部识别损失和循环一致性损失,以及生成面部口罩来强化 VAE 和 GAN 的训练目标,成功生成了高质量、保留细节的图像,并超越了现有方法。
Apr, 2018