Sep, 2019
通过标签平滑正则化重新审视知识蒸馏
Revisit Knowledge Distillation: a Teacher-free Framework
TL;DR本文挑战了使用强大的teacher model教授弱student model的共识,详细阐述了KD和label smoothing regularization之间的关系,提出了Teacher-free Knowledge Distillation(Tf-KD)框架,通过自学和手动设计正则化分布,实现了与正常KD相媲美的性能。