关键词invariant risk minimization
搜索结果 - 30
- AAAI不变信息瓶颈用于域泛化
本文提出了一种新的不变信息瓶颈(IIB)的域泛化方法,它采用互信息的变分形式来为非线性分类器开发可处理的损失函数,以实现最小化不变风险和减轻伪不变特征和几何偏移对模型的影响。在合成数据集上,IIB 可以显著优于 IRM(不变风险最小化),并 - MM通过不变风险和因果表示实现稳健的可重构智能表面
研究了鲁棒的可重构智能面(RIS)系统设计问题,并采用不变风险最小化(IRM)的概念,在多个环境中使用不变的因果表示,以使预测器对于每个环境都是同时最优的,结果表明,利用不变性可以提供更加稳健的防范未知环境和分布之外的测试。
- 元学习不变风险最小化
本研究提出了一种基于元学习的方法来解决数据集分布变化和环境数据中假相关性的问题,并通过实验展示该方法在 Out-of-Distribution(OOD)泛化性能、稳定性和解决 IRMv1 的局限性方面具有显著改进。
- 基于不变风险最小化的区外预测:局限性及有效解决方案
探讨了在多个领域训练数据集且测试数据集未出现在训练中时深度神经网络在预测 out-of-distribution 问题的可靠性,并提出了在强 lambda 混淆的情况下,结合条件分布匹配的方法来避免特定类型的假相关问题和实验证明了该方法的有 - 不变风险最小化是否能捕捉不变性?
研究表明,Arjovsky 等人的不变风险最小化 (IRM) 公式在其实际的 “线性” 形式下可能无法捕获 “自然” 的不变性,在非常简单的问题上甚至不能解决 IRL 的动机示例,即使与无限制的 ERM 相比,在新环境下可能导致更糟糕的泛化 - 不变学习中的公平性和鲁棒性:毒性分类的案例研究
本文关注于通过鲁棒性机器学习算法,提高在有偏数据集上训练、在无偏数据集上测试的分类器的公平性和鲁棒性。其中,作者使用了一种称为 “不变风险最小化(IRM)” 的领域泛化算法,并将其应用于公正预测互联网评论的毒性。作者发现,IRM 算法在提高 - 经验风险最小化或不变风险最小化?样本复杂度的视角
本研究分析了不变风险最小化(IRM)和经验风险最小化(ERM)框架的样本复杂度和渐近行为,在协变量转移设置中,IRM 和 ERM 的渐近解决方案相同且具有类似的有限样本行为,但对于其他分布转移,如涉及混淆变量或反因果变量的转移,IRM 和 - ICLR不变风险最小化的风险
在此篇文章中,我们首次针对分类下不变风险最小化 (IRM) 目标以及其最近提出的替代方案,采用自然且广泛的模型进行分析。我们发现在线性情况下,存在简单的条件使最优解成功或更常见的是失败,以至于无法恢复最优的不变预测器。此外,我们还展示了非线 - ICML不变风险最小化的实证研究
通过 ColoredMNIST 实验的扩展,我们发现不变风险最小化在不同训练环境中的表现更好,学习者能够学习尽量不受干扰的预测器,并且可扩展到文本分类领域。
- 不变风险最小化
介绍了不变风险最小化 (IRM) 的学习模式,通过学习数据表示来估计多个训练分布之间的不变关系,从而实现在所有训练分布上匹配最优分类器,通过理论和实验表明,IRM 学习到的不变性与控制数据的因果结构相关,并能够实现分布外概括。