Nov, 2023
使用相关距离和网络修剪强化的鲁棒性知识蒸馏
Robustness-Reinforced Knowledge Distillation with Correlation Distance
and Network Pruning
TL;DR我们提出了一种利用关联距离和网络修剪的强化稳健知识蒸馏(R2KD)方法,能够有效结合数据增强以提高模型的性能。在各种数据集上进行了广泛的实验,包括CIFAR-100、FGVR、TinyImagenet和ImageNet,这些实验证明了我们的方法优于当前最先进的方法。