Jan, 2024

使用紧凑的内部表示进行无监督领域适应

TL;DR通过将源领域和目标领域的数据点映射到共享嵌入空间中,训练映射编码器使嵌入空间变得与领域无关,从而使在源领域上训练的分类器能够在目标领域上很好地泛化。为了进一步提高无监督领域适应 (UDA) 的性能,我们提出了一种降低源领域内部分布紧密度的技术,从而提高模型在目标领域中的泛化能力。相对于嵌入空间中不同类别的数据表示之间的间隔,我们提高了 UDA 模型的性能。为了使内部表示更紧密,我们将源领域的内部学习多模态分布估计为高斯混合模型 (GMM)。利用估计的 GMM,我们增强了源领域中不同类别之间的分离性,从而减轻了领域转移的影响。我们提供了理论分析来支持我们的方法的优越性能。为了评估我们方法的有效性,我们在广泛使用的 UDA 基准数据集上进行了实证实验。结果表明我们的方法增强了模型的泛化能力,并超越了现有技术。