带精度约束的对抗不变特征学习用于领域泛化
本文介绍了一种基于核方法的算法Domain-Invariant Component Analysis,通过最小化域间差异并保留输入输出间的功能关系,学习一个不变转换来实现从已知相关领域到未曾接触领域的知识迁移。学习理论分析表明,减少差异可以提高分类器在新领域上的期望泛化能力。实验结果表明,DICA成功地学习了不变的特征并改善了分类器的性能。
Jan, 2013
本文提出了一种基于相关性感知的对抗式 DA 和 DG 框架,将源数据和目标数据的特征最小化,通过关联对齐模块和对抗学习来实现更加领域无关的模型,并在基准数据集上进行的实验证明了我们提出的方法的最新效果得到了改善。
Nov, 2019
本文研究使用先前为学习“公平表示”而开发的审查技术来解决域泛化问题。我们研究了$k$个域的对抗性损失函数及其渐近行为,并在此基础上获得了算法在以前未见过的域上良好最坏情况预测性能的充分条件。我们提供了完整的不变性特征描述,并为敌对不变域泛化提供了第一个形式化保证。
Jun, 2020
本文提出基于元学习的Discriminative Adversarial Domain Generalization(DADG)框架来改善机器学习模型的泛化能力,包括学习一般化的特征表示和分类器,在三个基准数据集的对比中,DADG始终优于基线DeepAll,并在大多数评估情况下优于其他现有的领域泛化算法。
Nov, 2020
本论文提出了一种基于对抗生成网络的方法,通过学习域间变换的不变性来实现域不变表示的学习,以解决领域泛化问题,并在多个广泛使用的数据集上取得了与最先进模型竞争的结果。
Feb, 2021
本文提出了一个可以将错误分解成不同泛化方面的组成部分的域泛化算法评估框架,并将其扩展到捕捉实现不变性的各种失败类型。作者表明,域不变表示学习的策略存在两个问题,并提出了一个可行的调整分类器的方向。通过对Colored MNIST和Camelyon-17数据集的评估,作者发现泛化误差的最大贡献因素因方法、数据集、正则化强度甚至训练长度而异。
Nov, 2021
本文提出了一种利用神经网络实现特征提取的领域通用方法,即Angular Invariance Domain Generalization Network(AIDGN),基于这种方法,我们通过von-Mises Fisher(vMF)混合模型开发了优化目标,并在多个基准数据集上进行了广泛的实验验证。
Oct, 2022
域泛化的新观点,创造了具有强大可辨别性和鲁棒普适性的特征,通过Selective Channel Pruning和Micro-level Distribution Alignment两个核心组件,解决了当前域泛化中特征泛化和差异化挑战。
Sep, 2023