通过循环一致变分自编码器分离变异因素
本文提出一种基于变分自编码器(Variational Autoencoder)的新方法来实现对自然语言处理(NLP)系统的解释,并将文本语言特征建模为离散变量以实现学习解缠编码表示,实验结果显示该方法在多个基准测试和一个文本风格迁移后处理应用中表现优异且优于基于连续和离散变量的基准模型。
Sep, 2021
本文研究了如何使用自编码器模型来解决因素糾纏問題,並通過在圖像對和三元組之間施加約束來訓練它。在實驗中,我們證明了此模型可以成功地在多個數據集上轉移屬性,但也存在參照模糊的情況。
Nov, 2017
提出了 Multi-Level Variational Autoencoder 用于学习语义上相关并解耦的潜变量表示,将工作集中在组别和个体水平上的同时保持高效的测试时推理,以便对相关变量进行无监督控制。
May, 2017
本文提出了一种不依赖于手动标注或数据领域知识的学习图像表示的方法,其实现了图像属性解离因素,其中每个因素代表一个一致的图像属性,这种解离后的特征可以应用于多种领域,例如将特定属性从一个图像转移到另一个图像、基于一个或多个属性进行分类或检索。这种方法中的自动编码器架构包括两个新的训练目标:不变性目标和分类目标,以确保每个特征块的编码对于其他属性是固定不变的,同时对于一致可辨的属性,避免出现完全被忽略的特征映射。实验验证了该方法在 MNIST、Sprites 和 CelebA 数据集上的有效性。
Nov, 2017
通过将标准的高斯变分自编码器(VAE)替换为量身定制的分类变分自编码器,我们探究了离散潜变量空间与解耦表示之间的关系。我们展示了分类分布的基础网格结构可以减轻与多变量高斯分布相关的旋转不变性问题,并作为解耦表示的高效先验。我们提供了分析和经验证据表明,离散 VAE 在学习解耦表示方面的优势。此外,我们引入了第一个偏向于解耦表示的无监督模型选择策略。
Jul, 2023
本文介绍了一种使用对称变换原则的新型非概率解缠框架,用于对自动编码器中的潜在空间进行因式分解(或解缠),旨在实现不使用正则化器基于自动编码器的解缠,该模型与 7 种最先进的基于自动编码器的生成模型进行了比较,并根据 5 个监督解缠度量进行了评估,实验结果表明,所提出的模型在每个特征的差异方差比较大时可以获得更好的解缠效果。我们认为,这种模型开创了一个不使用正则化器来进行自动编码器的解缠学习的新领域。
Feb, 2022
我们提出了一种自编码器方法,通过重新组织 StyleGAN 的潜空间,使我们希望编辑的每个属性对应于新潜空间的一个轴,同时确保潜空间轴之间的相关性降到最低,以促进属性解缠,通过实验证明了我们的方法在编辑能力上超越了竞争方法,同时在保持图像身份一致性方面与原始图像具有高度的准确性,我们的自编码器结构简单明了,易于实现。
Dec, 2023
本研究提出了一种基于组的变分自编码器模型,能够从多个数据集中无需标签的情况下,对数据进行解耦,并将其分为内容因素与变化因素,从而实现变换不变性和内容泛化能力。
Sep, 2018