Oct, 2023

具有不可靠源数据的鲁棒传输学习

TL;DR解决在稳健转移学习中由贝叶斯分类器的不确定性和目标与源分布之间弱可转移信号引起的挑战。我们介绍了一种称为''不确定性水平''的新量,用于衡量目标和源回归函数之间的差异,并提出了一种简单的转移学习过程。我们建立了一个一般定理,展示了这个新量与风险改进方面的学习可转移性是如何相关的。我们的提出的''Transfer Around Boundary''(TAB)模型,在平衡目标和源数据性能的阈值的基础上,既高效又稳健,在改进分类的同时避免了负转移。此外,我们还展示了TAB模型在非参数分类和逻辑回归任务上的有效性,达到了最优上限,与对数因子相匹配。模拟研究进一步支持了TAB的有效性。我们还提供了简单的方法来绑定过度的错误分类错误,无需在转移学习中专门的知识。