学习单域通用性
该篇研究论文提出了一个基于循环迭代的数据增强方法,使用虚构的目标领域中存在 “困难” 样本的数据来训练学习模型,以在先前未知的目标领域上实现更好的一般化表现。该方法利用对抗性示例以及数据依赖正则化来提高模型性能。
May, 2018
本文研究了开放域泛化的问题,提出了一种基于元学习的域增强框架 (DAML),通过特征层次和标签层次上的增强,综合不同领域的知识,提高在不同领域泛化能力的性能。实验结果表明,DAML 方法在未知领域识别方面表现优越。
Apr, 2021
本文关注在单源情况下广义化的最坏情况,提出了基于不确定性评估的输入与标签空间扩充方法,使用贝叶斯元学习框架,在图像分类、语义分割、文本分类和语音识别等范畴取得了优异的表现。
Mar, 2021
利用大型语言模型和文本到图像生成技术,我们介绍了一种领域外推方法,通过合成全新领域的高保真、逼真的图像来显著提高域泛化数据集的训练效果,实现了单一和多领域泛化任务上的显著改进,甚至在没有任何收集数据的条件下,超过了监督设置的表现。
Mar, 2024
该论文提出了一种利用单个测试样本进行跨域泛化模型训练的元学习方法,将单个测试样本的自适应变形建模为一种变分贝叶斯推断问题,从而在无需额外数据的情况下实现了对每个测试样本的自动调整,并在多个领域泛化基准测试中取得了至少与现有最先进方法相当甚至更好的性能。
Feb, 2022
本篇论文提出了一种基于模型的域泛化方法,通过对数据生成过程和同变性条件的建模,将域泛化问题转化为一个无限维的有约束统计学习问题,并利用非凸对偶理论发展了有约束松弛的统计问题,提出了具有收敛保证的域泛化算法,并在 ColoredMNIST,Camelyon17-WILDS,FMoW-WILDS 和 PACS 等基准测试中取得了高达 30 个百分点的改进。
Feb, 2021
本文主要探讨如何通过数据生成器来增加多个源域的多样性提高领域泛化能力,在使用了最优传输的分布偏差模型和循环一致性和分类损失的数据生成器模型中,我们的 L2A-OT(学习通过最优传输增广)方法在四个基准数据集中表现优于当前最先进的 DG 方法。
Jul, 2020