BriefGPT.xyz
Ask
alpha
关键词
cross-quality knowledge distillation
搜索结果 - 1
教师网络校准改善跨质量知识蒸馏
本文研究交叉质量知识蒸馏(CQKD),该方法将使用全分辨率图像进行训练的教师网络的知识转移到以低分辨率图像作为输入的学生网络中。CQKD 在大规模图像分类问题上的表现优于监督学习,并强调了神经网络校准的重要性:我们表明,通过更高的温度平滑教
→
PDF
a year ago
Prev
Next