学习域不变表示特征的条件熵最小化原则
本文介绍了一种基于核方法的算法Domain-Invariant Component Analysis,通过最小化域间差异并保留输入输出间的功能关系,学习一个不变转换来实现从已知相关领域到未曾接触领域的知识迁移。学习理论分析表明,减少差异可以提高分类器在新领域上的期望泛化能力。实验结果表明,DICA成功地学习了不变的特征并改善了分类器的性能。
Jan, 2013
介绍了不变风险最小化 (IRM) 的学习模式,通过学习数据表示来估计多个训练分布之间的不变关系,从而实现在所有训练分布上匹配最优分类器,通过理论和实验表明,IRM 学习到的不变性与控制数据的因果结构相关,并能够实现分布外概括。
Jul, 2019
在此篇文章中,我们首次针对分类下不变风险最小化 (IRM) 目标以及其最近提出的替代方案,采用自然且广泛的模型进行分析。我们发现在线性情况下,存在简单的条件使最优解成功或更常见的是失败,以至于无法恢复最优的不变预测器。此外,我们还展示了非线性部分的首批结果:除非测试数据与训练分布足够相似,否则 IRM 可能会失败,而这正是它要解决的问题。因此,在这种情况下,我们发现 IRM 及其替代方案从根本上没有改进标准经验风险最小化。
Oct, 2020
本文提出了一种新的不变信息瓶颈(IIB)的域泛化方法,它采用互信息的变分形式来为非线性分类器开发可处理的损失函数,以实现最小化不变风险和减轻伪不变特征和几何偏移对模型的影响。在合成数据集上,IIB可以显著优于IRM(不变风险最小化),并且在实际数据集上平均优于13个基线方法0.9%。
Jun, 2021
本文提出了基于领域特定风险最小化(DRM)的方法,旨在通过利用源域信息和适应性差的估计和最小化来弥合领域间差异以实现领域通用性,并在不同分布漂移设置下显着优于竞争基准。
Aug, 2022
通过学习来自多个环境的数据,提出在模型学习中,使用部分不变性(Partial Invariance)来放宽Invariant Risk Minimization(IRM)的假设条件,从而在语言和图像数据上进行实验并得出结论。
Jan, 2023
通过聚合不同训练领域上的后验,本研究提出了一个引理来隐式推断参数的不变后验分布,并使用 Posterior Generalization (PTG) 方法来估计不变参数分布,该方法基于变分推断近似参数分布,包括不变后验和训练领域的后验。研究结果表明,PTG 在 DomainBed 上的各种领域泛化基准测试上表现出竞争性能,且可与现有的领域泛化方法相结合以进一步提高性能。
Oct, 2023
我们提出了一种新的算法类别,即不变特征子空间恢复(ISR),用于实现分类和回归问题的可证明领域泛化。在二元分类方案中,我们的第一种算法ISR-Mean可以通过类条件分布的一阶矩来识别不变特征所张成的子空间,并在$d_s+1$个训练环境下实现可证明的领域泛化。
Nov, 2023