Aug, 2021

重新审视对抗性鲁棒性蒸馏:鲁棒的软标签让学生更好

TL;DR本研究使用了知识蒸馏的概念来提高小模型的鲁棒性,旨在改善在存储或计算资源非常有限的情况下对小型模型的有效性。通过使用 Robust Soft Label Adversarial Distillation(RSLAD)来训练鲁棒的小学生模型,完全利用了由 Robust(对抗训练)大教师模型产生的鲁棒软标签来引导学生的学习。该方法在提高小型模型对 AutoAttack 等最先进攻击的鲁棒性方面表现出优异的效果,并为对抗鲁棒性蒸馏的 Robust Soft 标签的重要性提供了一组理解。