Nov, 2023
使用相关距离和网络修剪强化的鲁棒性知识蒸馏
Robustness-Reinforced Knowledge Distillation with Correlation Distance and Network Pruning
Seonghak Kim, Gyeongdo Ham, Yucheol Cho, Daeshik Kim
TL;DR我们提出了一种利用关联距离和网络修剪的强化稳健知识蒸馏(R2KD)方法,能够有效结合数据增强以提高模型的性能。在各种数据集上进行了广泛的实验,包括 CIFAR-100、FGVR、TinyImagenet 和 ImageNet,这些实验证明了我们的方法优于当前最先进的方法。