领域密度转换的域不变表示学习
本文针对无监督域适应学习中常见的假设提出了简单反例,证明了这些假设并不足以保证域适应的成功;提出了一种基于信息理论的弱化条件,并证明了任何试图学习不变表示的域适应方法的联合误差都存在一种基本的权衡;最后,通过实验验证了理论结果。
Jan, 2019
研究表明,学习领域不变表示已成为非监督领域适应的一种流行方法,但其局限性主要在于非反演变换中丢失的信息以及领域不变性是一个过于严格的要求,本研究提出了一种权衡代价的一般化界限,并建议使用测量源域覆盖目标域范围的范围来提高性能。
Mar, 2019
本文研究使用先前为学习“公平表示”而开发的审查技术来解决域泛化问题。我们研究了$k$个域的对抗性损失函数及其渐近行为,并在此基础上获得了算法在以前未见过的域上良好最坏情况预测性能的充分条件。我们提供了完整的不变性特征描述,并为敌对不变域泛化提供了第一个形式化保证。
Jun, 2020
本篇论文提出了一种基于模型的域泛化方法,通过对数据生成过程和同变性条件的建模,将域泛化问题转化为一个无限维的有约束统计学习问题,并利用非凸对偶理论发展了有约束松弛的统计问题,提出了具有收敛保证的域泛化算法,并在ColoredMNIST,Camelyon17-WILDS,FMoW-WILDS和PACS等基准测试中取得了高达30个百分点的改进。
Feb, 2021
这篇论文是对近年来领域泛化(即在一个或多个不同但相关的领域中学习出可以推广到看不见的测试领域的模型)领域的最新进展的首次回顾,涵盖了相关的理论、算法、数据集、应用,并提出了未来的研究方向。
Mar, 2021
本文提出了一个可以将错误分解成不同泛化方面的组成部分的域泛化算法评估框架,并将其扩展到捕捉实现不变性的各种失败类型。作者表明,域不变表示学习的策略存在两个问题,并提出了一个可行的调整分类器的方向。通过对Colored MNIST和Camelyon-17数据集的评估,作者发现泛化误差的最大贡献因素因方法、数据集、正则化强度甚至训练长度而异。
Nov, 2021
该研究论文提出了一个公平且对比度特征空间正则化的算法,名为FOND,旨在学习可以转移源领域知识的、用于表示在特定领域中仅存在的类的广义表示。实验结果表明该算法在提高特定领域类别的泛化表现上取得了最先进的效果,并提供了可行的数据增强实用技巧。
Jun, 2023