高保真度分离表示合成
提出 DisCo 框架,通过利用预训练的生成模型的高生成质量和聚焦于发现作为解缠表示学习因素的遍历方向,从而实现学习解缠表示和发现区别性维度的最新进展。
Feb, 2021
本文从对比学习的角度提出了一种新的对抗生成网络(CD-GAN)来解决因潜变量的后验推断和缺乏样本似然性而难以实现的生成模型因果解释的问题,它通过对比图像特征来实现对数据中不同类之间可辨别属性的提取,并通过仅有的有限监督来提高模型的性能。实验结果表明了该模型在多个数据集上对数据进行高效的可解释性特征提取。
Mar, 2021
本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
本文提出了一种基于 StyleGAN 的半监督高分辨率解缠方法,旨在克服现有解缠方法在处理高分辨率图像、重视解缠表示的限制以及无监督设置下的不可识别性等局限性。实验结果表明,使用仅有 0.25%〜2.5%的标记数据,就可以在合成和真实数据集上实现良好的解缠,同时提出了新的指标来量化生成器的可控性,并且在探究解缠表示学习和可控生成之间的权衡时,发现其之间存在重要的平衡关系。
Mar, 2020
本研究提出了一种在深度生成模型中实现无监督的解缠结潜在表示的方法,通过在 VAE 的潜在空间中引入反 Wishart 先验来实现潜变量之间的统计独立性,能够在多个数据集上优于 beta-VAE 和与最先进的 FactorVAE 相竞争。
Sep, 2018
本文研究学习分离表现形式的问题,提出一种基于互信息估计的模型,用于捕捉数据的共享和独占组件,并强制实现表现形式分离,在共享或独占部分基础上实现图像分类和图像检索,结果表明相对于基于 VAE/GAN 方法的最先进模型,本文提出的模型表现更加出色。
Dec, 2019
通过渐进式学习独立层级表示,本文提出了一种策略来提高 Deep Generative Models 如 Variational Auto-Encoder 的去纠缠性能,该模型从最抽象的表示开始学习,并逐渐增加网络结构以介绍不同层次的表示。在两个基准数据集上,本文通过三个去纠缠度量定量地证明了所提出模型相比于现有作品的改进,包括我们提出的补充相互信息差度量。我们提供了定性和定量的证据,论证了学习进程如何提高分解成层级表示的性能。本文通过同时利用层级表示学习和渐进式学习的优势,是我们目前发现的第一次尝试通过逐步增加 VAE 的能力来提高去纠缠性。
Feb, 2020