Oct, 2023

走向统一而有效的领域泛化

TL;DR我们提出了一个新颖的 $UniDG$ 框架,用于 $ extbf {D}$ 应 $ extbf {G}$ 泛化,它能够显著提高基础模型的超出分布泛化性能,而无论它们的体系结构如何。UniDG 的核心思想是在推断阶段微调模型,从而节省了迭代训练的成本。具体来说,我们鼓励模型以无监督的方式学习测试数据的分布,并对模型参数的更新步骤施加惩罚。这个惩罚项可以有效地减少灾难性遗忘问题,因为我们希望尽可能地保留原始模型中的宝贵知识。根据实证,对于 12 个视觉骨干,包括卷积神经网络(CNN)、多层感知器(MLP)和 Transformer-based 模型,参数范围从 1.89M 到 303M 个,UniDG 在 DomainBed 上平均准确度提高了 + 5.4%。这些性能结果证明了 UniDG 的优越性和多功能性。代码公开可用于此网址。