关键词teacher-free distillation
搜索结果 - 2
- 跨任务知识蒸馏的投影学习
通过使用反向投影的简单修改,我们提出了一种针对跨任务设置的知识蒸馏方法,能够有效处理不同任务之间的教师和学生模型,在没有额外成本的情况下,在跨任务设置下相比传统投影获得了高达 1.9%的改进。此外,我们还使用反向投影进行了分析,提出了一种新 - AAAI在线多样化同行中的知识蒸馏
本文提出了一种双层蒸馏网络框架 OKDDip,其中包括多个辅助对等体和一个领导群体,辅助对等体通过注意力机制获取自己的预测目标,来作为组群内部的目标进行蒸馏学习,然后再将知识传递给领导群体,实现知识转移。实验结果表明,该框架在训练或推理复杂