关键词multi-teacher knowledge distillation
搜索结果 - 3
- 跨数据集估计人体姿态:一种统一的骨架和多教师蒸馏方法
通过多教师知识蒸馏与统一的骨骼表示相结合,我们提出了一种新颖的方法来解决姿态估计中不一致的骨骼注释所带来的挑战,同时提升了模型在不同数据集上的适应性,实现了更准确的康复 7 个主要关键点和 21 个扩展关键点的预测。
- MTKD:图像超分辨率的多教师知识蒸馏
我们提出了一种新颖的多教师知识蒸馏(MTKD)框架,专门用于图像超分辨率,通过结合和增强多个教师模型的输出来指导紧凑的学生网络的学习过程,并通过在空间和频率域中观察差异来优化训练过程,从而在超分辨率性能上实现了明显的改善。
- 元学习的自适应多教师知识蒸馏
本文提出了自适应多教师知识蒸馏与元学习,以指导学生从量身定制的集成教师中获得适当的知识。通过元权重网络的辅助,将输出层和中间层中多样但兼容的教师知识联合利用,以增强学生的表现。在多个基准数据集上进行的广泛实验验证了本方法的有效性和灵活性。