BriefGPT.xyz
Ask
alpha
关键词
adversarially robust distillation
搜索结果 - 1
AAAI
对抗鲁棒蒸馏
本文研究知识蒸馏过程中,如何将教师神经网络的鲁棒性传递给学生神经网络,并提出一种称为 Adversarially Robust Distillation (ARD) 的方法。实验证明,采用 ARD 的学生模型在鲁棒性上的表现明显优于采用相同
→
PDF
5 years ago
Prev
Next