Aug, 2021
重新审视对抗性鲁棒性蒸馏:鲁棒的软标签让学生更好
Revisiting Adversarial Robustness Distillation: Robust Soft Labels Make
Student Better
TL;DR本研究使用了知识蒸馏的概念来提高小模型的鲁棒性,旨在改善在存储或计算资源非常有限的情况下对小型模型的有效性。通过使用Robust Soft Label Adversarial Distillation(RSLAD)来训练鲁棒的小学生模型,完全利用了由Robust(对抗训练)大教师模型产生的鲁棒软标签来引导学生的学习。该方法在提高小型模型对AutoAttack等最先进攻击的鲁棒性方面表现出优异的效果,并为对抗鲁棒性蒸馏的Robust Soft标签的重要性提供了一组理解。