Dec, 2016

通过变换函数进行假设迁移学习

TL;DR本文提出了用于假设转移学习(HTL)的一种基于算法的新型框架,通过变换函数对源域和目标域之间的关系进行表征及风险分析,首次证明了,如果两个域之间存在关系,则HTL对于Kernel Smoothing和Kernel Ridge Regression的超额风险收敛速度比经典的非转移学习设定更快,实验结果表明了本框架的有效性。