领域泛化的连续学习
本文提出了一种元学习方法,通过在每个小批处理中合成虚拟测试领域,模拟训练/测试领域变化的过程,使用模型无关的培训程序,这种方法在最新的跨领域图像分类基准测试中取得了最先进的结果,并在两项经典强化学习任务中展示了其潜力。
Oct, 2017
本文旨在解决域适应问题,提出训练方法和策略,包括将深度神经网络分为特征提取器和分类器、使用伙伴交互训练方法、训练新问题的稳健性特征。新方法在三个域泛化基准下表现出最先进的性能,还表明该方法有助于计算机视觉中的标准方法。
Jan, 2019
本文介绍一种在不同训练集下预测性能好的算法——domain generalization algorithms,并提出它们在实际应用中的可用性。作者实现了一个名为 DomainBed 的测试平台,测试了不同数据集、不同基准算法和不同模型选择的效果,并发现在经验风险最小化的情况下,预测性能最优。研究人员们的贡献,加上这个领域的开源,将推动可重复性和严格性研究的发展。
Jul, 2020
本文主要探讨如何通过数据生成器来增加多个源域的多样性提高领域泛化能力,在使用了最优传输的分布偏差模型和循环一致性和分类损失的数据生成器模型中,我们的L2A-OT(学习通过最优传输增广)方法在四个基准数据集中表现优于当前最先进的DG方法。
Jul, 2020
这篇论文是对近年来领域泛化(即在一个或多个不同但相关的领域中学习出可以推广到看不见的测试领域的模型)领域的最新进展的首次回顾,涵盖了相关的理论、算法、数据集、应用,并提出了未来的研究方向。
Mar, 2021
本文提出一种新的域泛化范式——专业组合学习,利用固定的预先训练模型,先训练出一个线性标签空间适配器,然后提出一个认识到模型特殊性的集成网络,动态地分配适当的预训练模型来预测每个测试样本,与现有的域泛化方法相比,可以显著提高性能并大大减少可训练参数和时间成本。
Mar, 2022
该研究论文提出了一个公平且对比度特征空间正则化的算法,名为FOND,旨在学习可以转移源领域知识的、用于表示在特定领域中仅存在的类的广义表示。实验结果表明该算法在提高特定领域类别的泛化表现上取得了最先进的效果,并提供了可行的数据增强实用技巧。
Jun, 2023
深度神经网络在人工智能领域带来了革命性的进展,但面对分布转移时常常缺乏性能。传统神经网络假设训练和测试数据服从同一分布,然而实际应用中这一假设经常被违反。元学习作为一种有前景的方法,通过获取可传递的知识来快速适应各种任务,从而消除了从头学习每个任务的需求。本文基于特征提取策略和分类器学习方法的新分类法,全面调查了元学习在领域泛化方面的贡献,详细介绍了该领域的基础知识,并提供了关于未来研究方向的实践见解和深入讨论。
Apr, 2024
通过在领域一般化算法的微调过程中利用预训练模型,我们提出了一种新的微调方法,该方法称为“用大规模预训练先验进行微调(FT-LP)”,在多个数据集和领域一般化模型上的实验证明了其显著改进和有效性。
Jun, 2024