ICCVMar, 2019

对抗鲁棒性与模型压缩,还是两者兼顾?

TL;DR本文提出了一种并发对抗训练和权重修剪的框架,可以在保持对抗鲁棒性的情况下实现模型压缩,同时解决对抗训练的困境,并进一步研究了关于传统设置下的权重修剪的两个假设。