Jun, 2022

深度人脸识别的评估导向知识蒸馏

TL;DR我们提出一种面向评估的知识蒸馏方法(EKD),使用评估指标直接减少教师和学生模型之间的性能差距,在比较学生和教师模型在面部识别中的误报率和正确识别率后,通过一个基于排名的损失函数将学生模型中关键关系约束为教师模型中对应的关系。实验结果表明,我们的 EKD 方法优于现有的竞争方法。