监督学习中高效表示识别
针对学习解耦表示是表示学习中重要的问题,本文调查研究了少量监督如何影响现有的解耦学习方法,并进行了大规模实验,结果表明,即使标签不完全或不准确,使用少量的标记训练样本可以对现有的解耦学习模型进行模型选择,并证实引入监督可以有效地学习解耦表示。
May, 2019
该论文指出只需要知道环境中有多少因素发生了变化,而不必了解哪些因素发生了变化,就足以学习到分离的表征,同时实验表明,这种弱监督方式足以在多个基准数据集上可靠地学习到分离的表征,并在多个任务上发挥作用,包括协变量漂移下的一般化、公平性和抽象推理。
Feb, 2020
本文研究了如何使用自编码器模型来解决因素糾纏問題,並通過在圖像對和三元組之間施加約束來訓練它。在實驗中,我們證明了此模型可以成功地在多個數據集上轉移屬性,但也存在參照模糊的情況。
Nov, 2017
本文分析了无监督学习分离表示的最新进展并挑战了一些常见假设,通过实验研究发现,不加监督训练的模型很难达到良好的分离效果,同时,增加分离度似乎不会降低学习的样本复杂度,未来的研究应该关注归纳偏置和 (隐式) 监督的作用,考虑在多个数据集上复现实验结果。
Nov, 2018
这篇论文通过引入共变量先验偏好,提出了一种名为 C-Disentanglement 的框架,用于识别因果生成因子,并在领域变化下取得了与各种 SOTA 基准方法相比具有竞争力的结果。
Oct, 2023
本文提出一个基于变分推理的方法,从大量未标记的观察中推断分离的潜在因素,通过对所观察数据的近似后验期望引入正则化项,从而鼓励分离;同时,提出了一种新的分离度量,与解码器输出中观察到的定性分离更加一致,经实验证明,在分离度和数据似然(重建质量)方面存在显著的改进。
Nov, 2017
本文提出了一种基于多任务学习的有监督编码器,该编码器通过一个广泛的、多样化的有监督任务来学习一个共同的解缠表示,以从高维数据中恢复潜在因素的变化。该方法在多个真实情况下进行了验证,包括图像和文本数据等不同数据形式。
Apr, 2023
通过引入简单且有效的减法归纳偏差,条件于单个样本,我们提出了一种新颖且简单的架构,以减少信息泄漏,并展示了在生成和预测任务上相比多个强基准方法更先进的结果。
Jun, 2024