学习无偏特征
本研究提出了一种加权MMD方法,采用类特定辅助权重来考虑不同类别间的先验概率分布偏差,通过交替为源域中的每个类别引入辅助权重和分配伪标签以更新模型参数,解决了MMD忽视类别间重量偏差的问题。实验表明,加权MMD方法优于传统的MMD方法在域适应中的表现。
May, 2017
介绍了机器学习中领域自适应和转移学习的数据分布变化问题,分类模型的风险最小化框架及其在复杂变化中的应用,并讨论了多种方法来解决这些问题,但要实现实用化仍需解决许多问题。
Dec, 2018
本文提出了一种基于任务特定决策边界和Wasserstein度量的领域自适应的特征分布对齐方法,即切片Wasserstein差异。实验表明该方法在数字和标志识别、图像分类、语义分割和目标检测上都具有有效性和普适性。
Mar, 2019
本文研究在无监督领域适应中,加权样本的重要性抽样策略与不变表征相互作用的理论方面,并提出了一种改进的学习算法,旨在加强归纳偏差,减轻适应过程中可能存在的标签偏移问题。
Jun, 2020
本研究通过理论证明了 MMD 对源域和目标域内类距离进行最大化,并连带减少它们的方差以降低特征可分性;同时分析了内类距离和间类距离的关系,提出了一种新的基于判别性 MMD 的方法,实验表明其在几个基准数据集上的效果优于现有方法。
Jul, 2020
本研究提出了一种新的度量标准,即转移差异(TD),它基于下游任务表现来定义两个表示之间的差异,并展示了TD如何与下游任务相关,需要根据此类任务来定义指标,可用于评估不同训练策略的有效性。
Jul, 2020
本文提出一种使用von Neumann条件散度进行域自适应的方法,并设计了能够处理多个源任务的新学习目标,结果表明这种方法在新任务上具有更小的泛化误差和更少的源任务遗忘。
Aug, 2021
研究了领域自适应中的可转移性估计问题,并提出了一种非侵入式的无偏转移估计插件(UTEP)来优化无偏传递。通过估计到达数据的不确定性来对目标领域中未标记样本的伪标签进行选择,以帮助实现域之间更好的分布对齐。在广泛的DA基准数据集上的实验证明,所提出的方法可以轻松地并入各种基于对抗的DA方法,并实现了最先进的性能。
Jun, 2022
在转移学习范式下,该研究探索了使用预训练特征转换来优化下游性能的简单线性模型,并发现了通过最小化沿着一组下游任务的平均渐近下游风险来确定最佳预先训练表示的相对重要性以及从偏差-方差角度对它们的贡献的特征和结构的学习。
Apr, 2024