无损弱监督解缠编
本文分析了无监督学习分离表示的最新进展并挑战了一些常见假设,通过实验研究发现,不加监督训练的模型很难达到良好的分离效果,同时,增加分离度似乎不会降低学习的样本复杂度,未来的研究应该关注归纳偏置和(隐式)监督的作用,考虑在多个数据集上复现实验结果。
Nov, 2018
针对学习解耦表示是表示学习中重要的问题,本文调查研究了少量监督如何影响现有的解耦学习方法,并进行了大规模实验,结果表明,即使标签不完全或不准确,使用少量的标记训练样本可以对现有的解耦学习模型进行模型选择,并证实引入监督可以有效地学习解耦表示。
May, 2019
研究了当领域匹配、限定标签、匹配对和rank-pairing等弱监督方法与基于分布匹配的学习算法相结合时,弱监督何时以及如何保证解缠缚表示的理论框架及其保证和局限性,并通过实验证明了我们理论框架的预测能力和有用性。
Oct, 2019
本文提供了对无监督学习解开重要变动因素的最新发展的观点,旨在挑战一些常见的假设。本文首先从理论上证明了,无监督的解开表示恒妄图反演和数据上的约定性偏见是不可能的。接着,通过对8个数据集进行超过14,000个模型的训练,本文发现虽然不同的方法成功地实现了相应损失所鼓励的特性,但是没有监督的情况下,好的解开模型似乎无法被识别。此外,不同的评估指标并不总是在什么应该被认为是“解开的”上达成一致,而且在估计上表现出系统性差异。最后,增加的解开性似乎并不一定会导致学习下游任务的样本复杂度减少。本文的结果表明,关于解开学习的未来工作应该明确归因于诱导偏见和(隐含的)监督的作用,研究解开表示的具体好处,并考虑到涵盖几个数据集的可重复的实验设置。
Oct, 2020
提出一种名为SW-VAE的新型弱监督训练方法,该方法利用数据集的生成因素将输入观测对作为监督信号进行训练,并且引入了逐渐增加学习难度的策略来平滑训练过程。通过多个数据集的实验证明,该模型在表示分离任务上显示出明显的优于最先进方法的改进。
Sep, 2022
本文提出了一种基于多任务学习的有监督编码器,该编码器通过一个广泛的、多样化的有监督任务来学习一个共同的解缠表示,以从高维数据中恢复潜在因素的变化。该方法在多个真实情况下进行了验证,包括图像和文本数据等不同数据形式。
Apr, 2023
本研究解决了目前解耦表示学习在真实图像上的潜力未得到充分发挥的问题,特别是由于生成因素的相关性和真实标签的有限获取。通过利用合成数据学习通用的解耦表示并进行微调,我们的研究表明,在合成数据与真实数据之间转移代表性是可能且有效的,并提出了一种新的可解释干预式指标来评估代表性中的编码质量。
Sep, 2024