本文分析了无监督学习分离表示的最新进展并挑战了一些常见假设,通过实验研究发现,不加监督训练的模型很难达到良好的分离效果,同时,增加分离度似乎不会降低学习的样本复杂度,未来的研究应该关注归纳偏置和 (隐式) 监督的作用,考虑在多个数据集上复现实验结果。
Nov, 2018
使用可表征语法和语义规律的定义句类别训练变分自编码器,并在多个测试中展现其成功解耦表示效果,以及在定义建模中得到的改善。
Sep, 2022
探讨了一种无监督的去卷积方法,在使用没有去卷积术语的生成模型中提取去卷积表示,以获得与现有技术相当的结果。
Feb, 2021
本文提出了一种基于无监督学习、从神经科学中获得灵感的方法,利用变分自编码器对图像数据进行学习,从而获得解耦表示。该方法可以使神经科学的研究成果得以应用到实际中,同时还有零样本推理和直观理解的优点。
Jun, 2016
本文提供了对无监督学习解开重要变动因素的最新发展的观点,旨在挑战一些常见的假设。本文首先从理论上证明了,无监督的解开表示恒妄图反演和数据上的约定性偏见是不可能的。接着,通过对 8 个数据集进行超过 14,000 个模型的训练,本文发现虽然不同的方法成功地实现了相应损失所鼓励的特性,但是没有监督的情况下,好的解开模型似乎无法被识别。此外,不同的评估指标并不总是在什么应该被认为是 “解开的” 上达成一致,而且在估计上表现出系统性差异。最后,增加的解开性似乎并不一定会导致学习下游任务的样本复杂度减少。本文的结果表明,关于解开学习的未来工作应该明确归因于诱导偏见和(隐含的)监督的作用,研究解开表示的具体好处,并考虑到涵盖几个数据集的可重复的实验设置。
Oct, 2020
本文研究如何通过修改重建损失来实现 VAE 的去纠缠表征,并提出一种广义对抗训练的数据集来破解现有的去纠缠框架。
Feb, 2022
通过渐进式学习独立层级表示,本文提出了一种策略来提高 Deep Generative Models 如 Variational Auto-Encoder 的去纠缠性能,该模型从最抽象的表示开始学习,并逐渐增加网络结构以介绍不同层次的表示。在两个基准数据集上,本文通过三个去纠缠度量定量地证明了所提出模型相比于现有作品的改进,包括我们提出的补充相互信息差度量。我们提供了定性和定量的证据,论证了学习进程如何提高分解成层级表示的性能。本文通过同时利用层级表示学习和渐进式学习的优势,是我们目前发现的第一次尝试通过逐步增加 VAE 的能力来提高去纠缠性。
Feb, 2020
提出 DisCo 框架,通过利用预训练的生成模型的高生成质量和聚焦于发现作为解缠表示学习因素的遍历方向,从而实现学习解缠表示和发现区别性维度的最新进展。
通过将标准的高斯变分自编码器(VAE)替换为量身定制的分类变分自编码器,我们探究了离散潜变量空间与解耦表示之间的关系。我们展示了分类分布的基础网格结构可以减轻与多变量高斯分布相关的旋转不变性问题,并作为解耦表示的高效先验。我们提供了分析和经验证据表明,离散 VAE 在学习解耦表示方面的优势。此外,我们引入了第一个偏向于解耦表示的无监督模型选择策略。
Jul, 2023
本文综述了流行的生成模型,讨论了去解开深层神经网络的黑盒问题,通过分离潜在表征,提高对医学数据生成过程的控制和可解释性,从而在不侵犯病人隐私的前提下合成人工医学数据集,发掘数据生成特征,以及在医疗应用中获取新的结论。
Mar, 2022