ProtoVAE: 无监督解缠的原型网络
本研究提出了一种在深度生成模型中实现无监督的解缠结潜在表示的方法,通过在VAE的潜在空间中引入反Wishart先验来实现潜变量之间的统计独立性,能够在多个数据集上优于beta-VAE和与最先进的FactorVAE相竞争。
Sep, 2018
本文分析了无监督学习分离表示的最新进展并挑战了一些常见假设,通过实验研究发现,不加监督训练的模型很难达到良好的分离效果,同时,增加分离度似乎不会降低学习的样本复杂度,未来的研究应该关注归纳偏置和(隐式)监督的作用,考虑在多个数据集上复现实验结果。
Nov, 2018
通过渐进式学习独立层级表示,本文提出了一种策略来提高Deep Generative Models如Variational Auto-Encoder的去纠缠性能,该模型从最抽象的表示开始学习,并逐渐增加网络结构以介绍不同层次的表示。在两个基准数据集上,本文通过三个去纠缠度量定量地证明了所提出模型相比于现有作品的改进,包括我们提出的补充相互信息差度量。我们提供了定性和定量的证据,论证了学习进程如何提高分解成层级表示的性能。本文通过同时利用层级表示学习和渐进式学习的优势,是我们目前发现的第一次尝试通过逐步增加VAE的能力来提高去纠缠性。
Feb, 2020
本文提供了一种使用预训练网络来学习数据的解缠表示的方法,以实现最小的监督,同时展示了该方法在头部图像领域上成功将身份从其他面部属性中解缠并显示出较好的评估结果。
May, 2020
本文提出了一种利用生成模型度量解缕编表示的方法。通过量化学习表示中条件子流形的拓扑相似性,该方法不依赖于外部模型或特定数据集即可测量解缕编程度。我们通过多个数据集上的实验表明了该方法的有效性和适用性,发现与现有方法相比,该方法能够很好地对模型进行排序。
Jun, 2020
本研究解决了解耦表示学习中的真相信息缺失问题,提出了一种通过离散变分自编码器(VAE)来实现解耦的新方法。研究表明,结合全局代码簿的标量量化和总相关优化项能够显著提升解耦效果与重构性能,FactorQVAE方法在两个解耦指标上优于以往的解耦方法,具有重要的应用潜力。
Sep, 2024
本研究解决了解耦表示在生成建模中的有限适用性问题,通过引入一种新颖的总相关性下界(TC),优化变分自编码器(α-TCVAE),以最大化解耦和潜在变量的信息性。研究表明,α-TCVAE 在复杂数据集上能够学习到更加解耦的表示,并生成更多样化的观察结果,为机器学习领域提供了更好的生成能力和应用潜力。
Nov, 2024