Aug, 2023

单域泛化的新型交叉扰动

TL;DR单域广义化通过在单个源域上训练以提高模型对未知域的泛化能力,然而,有限的训练数据多样性影响了域不变特征的学习,导致泛化性能下降。为了解决这个问题,我们提出了一种名为 CPerb 的简单而有效的跨扰动方法,该方法利用水平和垂直操作来增强训练数据的多样性,从不同角度学习具有相同语义类别样本的多路扰动,并引入一种名为 MixPatch 的新型特征级扰动方法来进一步增加训练数据的多样性。在各种基准数据集上的广泛实验证明了我们方法的有效性。