May, 2023

Avatar 知识蒸馏:自我集成教师模式与不确定性

TL;DR本文提出一种新的知识蒸馏方法 ——Avatar Knowledge Distillation (AKD),通过生成因扰动转化而得的不同推理集合模型(Avatars)来协助学生模型更有效的学习,同时提出了一种基于推理模型差异的不确定性感知因素,以适应地调整 Avatars 的贡献,这种方法在不增加额外计算成本的前提下,将目标检测的平均精度提高了 0.7 AP,并将语义分割的平均 IoU 提高了 1.83。