无监督对抗不变性
本文提出了一种统一的不变性框架,可用于训练神经网络,从而使其在不使用任何附带标注的同时将数据的无关因素与数据相互独立,但也可以使用关于有偏因素的标记信息,强制将其从潜在嵌入中去除以实现公平预测。该模型在不使用标记信息的情况下优于先前的工作,并在公平性设置中实现了学习自由因素的最新性能。
May, 2019
提出了一种用于训练神经网络的框架,以识别和区分数据的预测和负面因素,并通过学习消除负面因素,从而实现对负面因素的不变性,从而实现对负面因素的不变性,并通过信息论框架和推导出的训练目标,实现了最先进的性能。
Dec, 2019
提出了一种弱监督信号和对比方法相结合的框架来同时学习解缠和不变表示,实验证明该方法在四个标准基准上均优于现有最先进方法,且无需对抗训练即具有更好的对抗防御能力。
Sep, 2022
本文提出了一种通过对抗学习策略学习能够抵抗特定数据因素影响的新型表示学习方法,并通过多个基准测试表明所提出的方法可以获取到不变表示,从而提高模型的泛化能力。
May, 2017
该研究论文提出了一种无监督学习方法,它通过显式地从噪声数据中学习不变展示来重建清晰图像,并通过引入离散解缠表示和敌对域自适应等额外的自监督模块实现。实验表明该方法在合成和真实噪声去除任务方面表现与最先进的监督和无监督方法相当,同时比其他领域适应方法具有更快和更稳定的收敛性。
Mar, 2020
该论文指出只需要知道环境中有多少因素发生了变化,而不必了解哪些因素发生了变化,就足以学习到分离的表征,同时实验表明,这种弱监督方式足以在多个基准数据集上可靠地学习到分离的表征,并在多个任务上发挥作用,包括协变量漂移下的一般化、公平性和抽象推理。
Feb, 2020
通过数据驱动的方法,在结构因果模型框架下,提出了一种名为 Focused Adversarial Invariance Regularization (FAIR) 的新框架,用于解决多样环境下的不变性追求问题,并应用 FAIR-NN 估计器实现普适的非参数不变性学习。
May, 2024