CVPRMar, 2023
泛化问题的重要性:通过参数混合实现最小化损失平稳以实现高效在线知识蒸馏
Generalization Matters: Loss Minima Flattening via Parameter Hybridization for Efficient Online Knowledge Distillation
Tianli Zhang, Mengqi Xue, Jiangtao Zhang, Haofei Zhang, Yu Wang...
TL;DR本篇论文提出了一种在线知识蒸馏方法,采用多模型设置和参数混合的方式来提高学生的泛化性能,该方法可以达到更平坦的最小值并获得稳健的解决方案。