通过无监督的几何蒸馏解开内容和风格
本文介绍了一种基于假设的无监督的 C-S 解缠方法,该方法使用模型归纳偏差并为内容和样式分别分配不同的作用,以近似真实数据分布并实现图像重建,并在几个流行的数据集上进行了实验,验证了方法的有效性。
Feb, 2021
该研究提出了一种新的无监督算法 ——Style and Content Disentangled GAN(SC-GAN),该算法可以让训练的生成敌对网络(GAN)以一种分离风格和内容的方式学习数据的表征。
Nov, 2018
自我监督表示学习经常使用数据增强来诱导对数据的 “风格” 属性的某种不变性。然而,由于在训练时通常不知道下游任务,很难事先推断哪些属性实际上是 “风格”,并且可以安全地丢弃。为了解决这个问题,我们引入了一种更有原则性的方法,旨在解开 “风格” 特征而不是丢弃它们。关键思想是添加多个风格嵌入空间,其中:(i)每个空间对除一个增强操作外都不变;(ii)联合熵被最大化。我们从因果潜变量模型的角度形式化了我们的结构化数据增强过程,并证明了内容和(多个模块的)风格变量的可辨识性。我们在合成数据集上通过实验证明了我们方法的好处,然后在 ImageNet 上展示了有限但有希望的结果。
Nov, 2023
本研究提出了一种基于分离内容和风格表示的基于学习的方法,用于在 3D 对象之间进行风格转移,可以合成以目标 3D 模型为风格,来源 3D 模型为内容的新 3D 形状,同时我们还将其扩展到了多样式分布的隐式学习。实验结果证实了该方法在多个基准测试中的有效性。
Nov, 2020
本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
本文提出了一种无监督的方法来将三维点云的变分自编码器的潜空间进行划分,结果展现出直观可解释的行为,在姿态转换和姿态感知形状检索等任务上表现出色,为人工智能中 3D 形状表示问题提供重要思路。
Aug, 2019
使用变分自编码器 (Variational Autoencoders),通过增加最小化对抗互信息项来消除样式 (Syle) 表示中的内容 (Content) 信息,从而实现有效地分离内容和样式相关属性。
Jan, 2020
本文提出了一个利用多任务和敌对目标进行辅助的简单但有效的方法,用于预测 label 和词袋模型,以此解决了语言模型中风格和内容的潜在变量发掘问题。同时有效地实现了风格迁移,并取得了较之前的最先进方法更好的迁移精度、内容保存和语言流畅度。
Aug, 2018
通过一个双重潜在空间信息的生成模型,我们利用空间变换器和变分自动编码器构成了一种具有归纳偏差的 Variationally Inferred Transformational Autoencoder (VITAE) 方法用于实现解缠表示的学习,实验结果表明,我们的模型在 MNIST 图像上有效区分了数字类型和视觉风格,对于 CelebA 数据集,能够将人脸外形和姿态以及面部特征与面部形状分开。
Jun, 2019