混合训练使领域泛化变得轻而易举
本论文研究了无监督域适应问题,提出了使用 mixup 公式在领域之间强制应用训练约束,并引入特征级一致性正则化器来促进跨域约束,有条件混合和领域对抗学习,显著提高了图像分类和人类活动识别的重要任务的最新表现。
Jan, 2020
领域泛化通过提高模型的鲁棒性来开发具有分布偏移上的稳定性的模型。现有方法在跨域数据上学习不变性以增强模型的稳健性,数据增强被广泛用于学习不变的预测模型,其中大多数方法在输入空间进行增强。然而,输入空间的增强的多样性有限,而特征空间的增强更加灵活且显示了有希望的结果。然而,特征语义很少被考虑,现有特征增强方法缺乏增强特征的多样性。我们将特征分解为类通用、类特定、领域通用和领域特定组件。我们提出了一种名为 XDomainMix 的跨域特征增强方法,使我们能够增加样本的多样性,同时强调学习不变表示以实现领域泛化。对广泛使用的基准数据集的实验证明我们的方法能够实现最先进的性能。定量分析表明我们的特征增强方法有助于学习在不同领域中都不变的有效模型。
May, 2024
提出一种名为 “动态域泛化”(DDG) 的新颖域泛化变体,其中模型学习扭曲网络参数以适应来自不同域的数据,并使用元调整器来扭曲网络参数,以便针对不同来源和目标域进行动态调整。通过使用 DomainMix 来模拟不同域的数据进行教学,以帮助元调整器适应未来的未知目标领域,无需经过训练即可实现模型的自适应调整,实验证明该方法的有效性。
May, 2022
本研究提出在深度神经网络中结合域随机映射 (Domain Mixup) 的方法用于域自适应领域,研究表明该方法在如处理不同程度的域漂移和数据复杂度的任务中具有卓越的性能。
Dec, 2019
本文提出了一种新颖的理论框架 meta-Domain Specific-Domain Invariant(mDSDI),通过元学习框架优化是领域特定表示,并通过同时学习领域特定和领域不变特点,在潜在空间中区分特征,从而针对源域进行自适应,并在未知域上获得强大的泛化能力,实验证明这种方法在领域一般化中具有竞争力。
Oct, 2021
通过基于因果学习和干预的方法,我们提出了一种新颖的因果启发潜在特征增强方法,用于单域泛化,我们可以生成多样的隐式特征级变换,在潜在空间中更好地补偿对初始有限图像级变换的依赖,捕捉更稳定的领域不变因果特征以实现泛化。
Jun, 2024
该论文研究了如何通过采用特征空间中的隐式语义增强来提高模型的泛化性能,并将距离度量学习(DML)的额外损失函数和无限增强的交叉熵损失的 logits 作为 DML 损失的输入特征。实验表明,该方法在 Digits-DG、PACS 和 Office-Home 三个基准测试数据集上可以实现最先进的性能水平。
Aug, 2022
该研究论文提出了一个公平且对比度特征空间正则化的算法,名为 FOND,旨在学习可以转移源领域知识的、用于表示在特定领域中仅存在的类的广义表示。实验结果表明该算法在提高特定领域类别的泛化表现上取得了最先进的效果,并提供了可行的数据增强实用技巧。
Jun, 2023
本研究提出了使用样式互补模块来增强模型的泛化能力,从而解决单域泛化中由于样本多样性有限而导致的泛化性能下降。通过在三个基准数据集上进行大量实验,结果表明本方法优于现有的单域泛化方法,最高提升了 25.14%。
Aug, 2021
通过加法解缠领域特征与重新混合损失(ADRMX)的新颖结构,结合领域不变特征与领域变体特征,解决了提取源领域中的共同特征的方法仅限制了模型泛化能力的问题。同时,引入了新的数据增强技术,通过在潜在空间内混合不同领域的样本,进一步支持 ADRMX 的泛化能力。经过在公平条件下对 DomainBed 进行的广泛实验,ADRMX 表现出最先进的性能。在修改过程结束后,代码将在 GitHub 上公开。
Aug, 2023