BriefGPT.xyz
May, 2019
对抗鲁棒蒸馏
Adversarially Robust Distillation
HTML
PDF
Micah Goldblum, Liam Fowl, Soheil Feizi, Tom Goldstein
TL;DR
本文研究知识蒸馏过程中,如何将教师神经网络的鲁棒性传递给学生神经网络,并提出一种称为 Adversarially Robust Distillation (ARD) 的方法。实验证明,采用 ARD 的学生模型在鲁棒性上的表现明显优于采用相同结构的敌对训练网络,并在标准鲁棒性基准测试中超越了当前最先进的方法。
Abstract
knowledge distillation
is effective for producing small high-performance
neural networks
for
classification
, but these small networks are
→