Mar, 2024

跨任务知识蒸馏的投影学习

TL;DR通过使用反向投影的简单修改,我们提出了一种针对跨任务设置的知识蒸馏方法,能够有效处理不同任务之间的教师和学生模型,在没有额外成本的情况下,在跨任务设置下相比传统投影获得了高达 1.9%的改进。此外,我们还使用反向投影进行了分析,提出了一种新的正则化损失函数,使得在 ImageNet 上的无教师蒸馏性能提升高达 8.57%,且无需额外的训练成本。