扩大领域泛化的特征支持重叠
本论文表明,领域泛化的目标不仅仅是考虑到类别标签,还包括特定因果特征,并提出了一种基于匹配的算法来实现该目标,该算法通过数据增强的方式观察基本对象并近似目标结果,结果表明该算法优于先前方法。
Jun, 2020
探讨了在多个领域训练数据集且测试数据集未出现在训练中时深度神经网络在预测out-of-distribution问题的可靠性,并提出了在强lambda混淆的情况下,结合条件分布匹配的方法来避免特定类型的假相关问题和实验证明了该方法的有效性。
Jan, 2021
本文第一次尝试对OOD问题的可学习性和扩张函数进行严格和量化的定义,并引入了一个新的扩张函数概念来量化不变特征的方差程度,进而证明了OOD泛化误差界,实验证明我们的模型选择标准相比基线有显著优势。
Jun, 2021
本文研究了如何在有限数量的训练环境中,针对来自未知测试环境的数据进行域推广,并提出了一种迭代特征匹配算法,保证在看到只有O(log(d_s))个环境之后,产生一个具有泛化性能的预测器。
Jun, 2021
本文提出了基于领域特定风险最小化(DRM)的方法,旨在通过利用源域信息和适应性差的估计和最小化来弥合领域间差异以实现领域通用性,并在不同分布漂移设置下显着优于竞争基准。
Aug, 2022
本文探究一种基于对抗训练的深度学习模型方法,称为Domainwise Adversarial Training (DAT),来解决深度学习模型在广义分布中失败的问题,该方法借鉴了Invariant Risk Minimization (IRM) 和Adversarial Training (AT)方法,并通过实验证明,我们提出的DAT方法在解决不同广义分布转移方案上表现均可。
Dec, 2022
通过学习来自多个环境的数据,提出在模型学习中,使用部分不变性(Partial Invariance)来放宽Invariant Risk Minimization(IRM)的假设条件,从而在语言和图像数据上进行实验并得出结论。
Jan, 2023
通过最小化训练域之间的风险分布差异,建立领域不变性;采用风险分布匹配(RDM)方法,通过对最坏情况域和所有域的综合分布进行对齐,既提高了效果,又提高了计算效率。该方法在标准基准数据集上的实验证明,优于现有的领域泛化方法。
Oct, 2023
领域泛化通过提高模型的鲁棒性来开发具有分布偏移上的稳定性的模型。现有方法在跨域数据上学习不变性以增强模型的稳健性,数据增强被广泛用于学习不变的预测模型,其中大多数方法在输入空间进行增强。然而,输入空间的增强的多样性有限,而特征空间的增强更加灵活且显示了有希望的结果。然而,特征语义很少被考虑,现有特征增强方法缺乏增强特征的多样性。我们将特征分解为类通用、类特定、领域通用和领域特定组件。我们提出了一种名为XDomainMix的跨域特征增强方法,使我们能够增加样本的多样性,同时强调学习不变表示以实现领域泛化。对广泛使用的基准数据集的实验证明我们的方法能够实现最先进的性能。定量分析表明我们的特征增强方法有助于学习在不同领域中都不变的有效模型。
May, 2024