Apr, 2023

在严格预算下从相近任务中提炼知识以进行迁移学习

TL;DR本文提出了一种名为 DistillNearest 和 DistillWeighted 的多源蒸馏方法,通过利用任务相似度度量来选择单个合适的源模型以及加权多源蒸馏方法,解决了在资源受限制的情况下,通过有限标签获取高效而准确识别系统的问题。通过实验验证表明,这两种方法在准确性、计算效率等方面优于传统的迁移学习和半监督学习方法。