Apr, 2022

DearKD:用于Vision Transformers的数据高效早期知识蒸馏

TL;DR本文提出了一种早期知识蒸馏框架(DearKD),通过从卷积神经网络的早期中间层中提取归纳偏差然后通过无蒸馏进行训练,以提高变压器所需的数据效率。我们还针对极端的零数据情况提出了一种基于DeepInversion的边界保留内部分歧损失,从而进一步缩小与完整数据对照组之间的性能差距。针对ImageNet、partial ImageNet、无数据设置和其他下游任务的大量实验证明DearKD优于其基准和最先进的方法。