CVPRMay, 2022

[转载] 通过知识回顾进行知识蒸馏

TL;DR本论文旨在复现 CVPR '21 论文《通过知识审查来提取知识》的实验结果并分析其知识蒸馏方法的健壮性。通过引入残差学习框架并设计新的多层教师神经网络的融合模块来训练单层学生神经网络,以及后引入的跨级连接方法,该方法取得了显著的性能提升。本文在通过消融实验和新实验验证了其有效性,并与原论文报告的测试精度进行了一致的验证。