通过分离已知和未知的干扰因素进行弱监督不变表示学习
该论文提出了一种新的无监督不变感知诱导框架,该框架通过竞争式训练和分解重构任务学习数据的分离表示,以抵抗干扰因素,并且无需任何标签的信息或领域知识。该无监督模型可以有效地使用合成数据增强来学习不变性和领域适应,并在诸如二元 / 多类别分类或回归等任何预测任务中应用。
Sep, 2018
提出了一种用于训练神经网络的框架,以识别和区分数据的预测和负面因素,并通过学习消除负面因素,从而实现对负面因素的不变性,从而实现对负面因素的不变性,并通过信息论框架和推导出的训练目标,实现了最先进的性能。
Dec, 2019
本文提出了一种统一的不变性框架,可用于训练神经网络,从而使其在不使用任何附带标注的同时将数据的无关因素与数据相互独立,但也可以使用关于有偏因素的标记信息,强制将其从潜在嵌入中去除以实现公平预测。该模型在不使用标记信息的情况下优于先前的工作,并在公平性设置中实现了学习自由因素的最新性能。
May, 2019
本文提出了一种新颖的分离方法来解决不变表示的问题,通过正交约束作为独立的代理来将有意义和敏感表示分离,并通过熵最大化来明确地强制有意义的表示对敏感信息不可知。该方法在公开的数据集上进行了评估,并将其与最先进的方法进行了比较,证明其在处理公平性和不变性方面具有最先进的性能。
Mar, 2020
该论文指出只需要知道环境中有多少因素发生了变化,而不必了解哪些因素发生了变化,就足以学习到分离的表征,同时实验表明,这种弱监督方式足以在多个基准数据集上可靠地学习到分离的表征,并在多个任务上发挥作用,包括协变量漂移下的一般化、公平性和抽象推理。
Feb, 2020
该研究论文提出了一种无监督学习方法,它通过显式地从噪声数据中学习不变展示来重建清晰图像,并通过引入离散解缠表示和敌对域自适应等额外的自监督模块实现。实验表明该方法在合成和真实噪声去除任务方面表现与最先进的监督和无监督方法相当,同时比其他领域适应方法具有更快和更稳定的收敛性。
Mar, 2020
本文从可分离表示学习的角度解决了对抗鲁棒性的挑战,并设计了一个可分离学习网络来估计互信息,实验证明该方法在对抗攻击下显著优于代表性方法,强调舍弃非鲁棒性特征对于提高对抗鲁棒性至关重要。
Oct, 2022
针对学习解耦表示是表示学习中重要的问题,本文调查研究了少量监督如何影响现有的解耦学习方法,并进行了大规模实验,结果表明,即使标签不完全或不准确,使用少量的标记训练样本可以对现有的解耦学习模型进行模型选择,并证实引入监督可以有效地学习解耦表示。
May, 2019