基于特征嵌入的无监督域适应
本文介绍了一种方法,它通过学习领域不变的局部特征模式并联合对齐整体和局部特征统计量,从而进一步实现细粒度特征对齐,并在两个流行的基准数据集上将其与现有的无监督领域适应方法进行比较,证明了我们方法的优越性和对减轻负迁移的有效性。
Nov, 2018
本篇综述针对最近的研究进展,对不需要标记目标领域数据的神经无监督领域自适应技术进行了概述,包括从传统非神经方法到预训练模型迁移的方法,并揭示了自然语言处理任务类型中存在的偏见问题以及未来的研究方向,特别是面向 NLP 的超分布通用化需求。
May, 2020
本文探讨通过将语音表征映射到对应的高级语言信息以学习领域不变的语音表征,结果证明,学习到的 latents 不仅捕捉到每个音素的发音特征,而且提高了适应能力,在 accened 测试基准上大幅优于基准模型。
Oct, 2022
通过联合域对齐和辨别特征学习的方式,可以带来对域对齐和最终任务分类的双重优化。对于视觉和机器学习领域,大部分现有工作只集中在通过最小化不同域之间的分布差异来学习共享的特征表示。然而,本文指出,所有域对齐方法只能减少,而不是消除域移位的情况。因此,我们提出了一种实例和中心的辨别特征学习方法,它们都可以在共享的特征空间中学习到具有更好的类内紧密性和类间可分性的域不变特征。实验表明,在共享的特征空间中学习辨别特征可以显著提高深度域自适应方法的性能。
Aug, 2018
本文针对无监督域适应学习中常见的假设提出了简单反例,证明了这些假设并不足以保证域适应的成功;提出了一种基于信息理论的弱化条件,并证明了任何试图学习不变表示的域适应方法的联合误差都存在一种基本的权衡;最后,通过实验验证了理论结果。
Jan, 2019
本文介绍了一个基于非线性嵌入变换的无监督域自适应方法,通过域对齐降低跨域差异,降低数据分布间的偏移,使得相似的数据点可以聚类在一起,提高了分类的性能,并提出了基于样本抽样的验证过程,以确定无监督域适应模型的参数,最后在多个图像数据集上对比了该方法和其他竞争算法的分类结果。
Jun, 2017
通过将源领域和目标领域的数据点映射到共享嵌入空间中,训练映射编码器使嵌入空间变得与领域无关,从而使在源领域上训练的分类器能够在目标领域上很好地泛化。为了进一步提高无监督领域适应 (UDA) 的性能,我们提出了一种降低源领域内部分布紧密度的技术,从而提高模型在目标领域中的泛化能力。相对于嵌入空间中不同类别的数据表示之间的间隔,我们提高了 UDA 模型的性能。为了使内部表示更紧密,我们将源领域的内部学习多模态分布估计为高斯混合模型 (GMM)。利用估计的 GMM,我们增强了源领域中不同类别之间的分离性,从而减轻了领域转移的影响。我们提供了理论分析来支持我们的方法的优越性能。为了评估我们方法的有效性,我们在广泛使用的 UDA 基准数据集上进行了实证实验。结果表明我们的方法增强了模型的泛化能力,并超越了现有技术。
Jan, 2024
本研究提出了一种无监督方法,学习特定领域的单词表示,以准确捕捉单词语义的领域特定方面,并使用所学习的单词表示进行域适应性处理,以在对多个不同领域对情感分类任务中获得最佳准确性,并显着优于现有基准。
May, 2015