该论文指出只需要知道环境中有多少因素发生了变化,而不必了解哪些因素发生了变化,就足以学习到分离的表征,同时实验表明,这种弱监督方式足以在多个基准数据集上可靠地学习到分离的表征,并在多个任务上发挥作用,包括协变量漂移下的一般化、公平性和抽象推理。
Feb, 2020
针对学习解耦表示是表示学习中重要的问题,本文调查研究了少量监督如何影响现有的解耦学习方法,并进行了大规模实验,结果表明,即使标签不完全或不准确,使用少量的标记训练样本可以对现有的解耦学习模型进行模型选择,并证实引入监督可以有效地学习解耦表示。
May, 2019
本文针对非线性独立成分分析的负面结果,试图研究在没有条件独立性的辅助信息下如何实现解缠以及如何减少需要的辅助信息量。在一类模型中,我们证明理论上和实验上都可以实现解缠,即使辅助信息的维度远小于真实潜在表示的维度。
Apr, 2022
本文研究了如何使用自编码器模型来解决因素糾纏問題,並通過在圖像對和三元組之間施加約束來訓練它。在實驗中,我們證明了此模型可以成功地在多個數據集上轉移屬性,但也存在參照模糊的情況。
Nov, 2017
我们提出了一种有条件的生成模型,用于学习将标记的观察结果的隐藏变化因素分离并分解成互补代码,实验结果表明该方法能够推广到未见过的类别和内类别变异。
Nov, 2016
本文提出了一种不依赖于手动标注或数据领域知识的学习图像表示的方法,其实现了图像属性解离因素,其中每个因素代表一个一致的图像属性,这种解离后的特征可以应用于多种领域,例如将特定属性从一个图像转移到另一个图像、基于一个或多个属性进行分类或检索。这种方法中的自动编码器架构包括两个新的训练目标:不变性目标和分类目标,以确保每个特征块的编码对于其他属性是固定不变的,同时对于一致可辨的属性,避免出现完全被忽略的特征映射。实验验证了该方法在 MNIST、Sprites 和 CelebA 数据集上的有效性。
通过学习一个新的方法,深度生成模型可以不需要姿态注释便可学习到表征物体外观和姿态等属性的独立潜在特征,这些特征是可以解释的,且能够生成和修改图像。
Oct, 2019
本文分析了无监督学习分离表示的最新进展并挑战了一些常见假设,通过实验研究发现,不加监督训练的模型很难达到良好的分离效果,同时,增加分离度似乎不会降低学习的样本复杂度,未来的研究应该关注归纳偏置和 (隐式) 监督的作用,考虑在多个数据集上复现实验结果。
Nov, 2018
该研究文章提出了一种基于参照的去混淆学习方法,并使用基于变分自编码器的深度生成模型成功学习到了无标注图像数据中的离散化部分解耦的表征。
Jan, 2019
本论文提出了一个灵活的弱监督多因素解缕(DisUnknown)框架,通过数据解缕使得已标记和未知因素均可被条件生成,并采用一个分两阶段的训练方法来解缕未知因素,并使用未知因素蒸馏来训练最终的生成器。我们在多个基准数据集上进行了定性和定量评估,并进一步将其应用于各种复杂数据集上的实际应用。
Sep, 2021