通过条件不变表示实现域泛化
本文介绍了一种基于核方法的算法Domain-Invariant Component Analysis,通过最小化域间差异并保留输入输出间的功能关系,学习一个不变转换来实现从已知相关领域到未曾接触领域的知识迁移。学习理论分析表明,减少差异可以提高分类器在新领域上的期望泛化能力。实验结果表明,DICA成功地学习了不变的特征并改善了分类器的性能。
Jan, 2013
本文针对无监督域适应学习中常见的假设提出了简单反例,证明了这些假设并不足以保证域适应的成功;提出了一种基于信息理论的弱化条件,并证明了任何试图学习不变表示的域适应方法的联合误差都存在一种基本的权衡;最后,通过实验验证了理论结果。
Jan, 2019
本论文表明,领域泛化的目标不仅仅是考虑到类别标签,还包括特定因果特征,并提出了一种基于匹配的算法来实现该目标,该算法通过数据增强的方式观察基本对象并近似目标结果,结果表明该算法优于先前方法。
Jun, 2020
本文研究使用先前为学习“公平表示”而开发的审查技术来解决域泛化问题。我们研究了$k$个域的对抗性损失函数及其渐近行为,并在此基础上获得了算法在以前未见过的域上良好最坏情况预测性能的充分条件。我们提供了完整的不变性特征描述,并为敌对不变域泛化提供了第一个形式化保证。
Jun, 2020
本论文提出了一种用于半监督域适应的算法LIRR,它能同时学习不变的表示和风险,并将特征空间中的边缘和条件分布对齐,实现了目标泛化能力的有意义提高。该算法在分类和回归任务上实现了最先进的性能和显著的改进。
Oct, 2020
本论文提出了一种基于对抗生成网络的方法,通过学习域间变换的不变性来实现域不变表示的学习,以解决领域泛化问题,并在多个广泛使用的数据集上取得了与最先进模型竞争的结果。
Feb, 2021
这篇论文是对近年来领域泛化(即在一个或多个不同但相关的领域中学习出可以推广到看不见的测试领域的模型)领域的最新进展的首次回顾,涵盖了相关的理论、算法、数据集、应用,并提出了未来的研究方向。
Mar, 2021
本文提出了一个可以将错误分解成不同泛化方面的组成部分的域泛化算法评估框架,并将其扩展到捕捉实现不变性的各种失败类型。作者表明,域不变表示学习的策略存在两个问题,并提出了一个可行的调整分类器的方向。通过对Colored MNIST和Camelyon-17数据集的评估,作者发现泛化误差的最大贡献因素因方法、数据集、正则化强度甚至训练长度而异。
Nov, 2021
该研究论文提出了一个公平且对比度特征空间正则化的算法,名为FOND,旨在学习可以转移源领域知识的、用于表示在特定领域中仅存在的类的广义表示。实验结果表明该算法在提高特定领域类别的泛化表现上取得了最先进的效果,并提供了可行的数据增强实用技巧。
Jun, 2023