May, 2019
自我蒸馏:通过蒸馏提高卷积神经网络性能
Be Your Own Teacher: Improve the Performance of Convolutional Neural
Networks via Self Distillation
TL;DR提出了一种名为“自蒸馏”的卷积神经网络训练框架,通过将网络大小缩小而不是扩大来显著提高卷积神经网络的性能(准确性)。它与传统的知识蒸馏不同,后者是将预训练的教师神经网络的输出作为softmax层输出的近似值强制学生神经网络去逼近。该框架将知识内化到网络本身,对深度方面的可伸缩推理提供了灵活性,能够在资源有限的边缘设备上运行。