BriefGPT.xyz
Ask
alpha
关键词
multi-step distillation
搜索结果 - 2
利用助教提高防御性蒸馏
该项目研究深度神经网络中的对抗攻击并探讨防御性蒸馏的方法,提出通过引入辅助网络来改善蒸馏模型的鲁棒性,并通过实验证明该方法的有效性及其对模型准确性的影响。
PDF
a year ago
AAAI
教辅辅助下的知识蒸馏改进
本论文针对深度神经网络过于庞大以至于不能部署在移动设备等边缘设备的问题,提出了一种基于知识蒸馏的网络压缩方法。然而,该论文表明,如果学生网络与教师网络之间的差距太大,那么知识蒸馏的性能会下降;为此,该论文提出了一种多步知识蒸馏的方法,通过使
→
PDF
5 years ago
Prev
Next