BriefGPT.xyz
大模型
Ask
alpha
关键词
residual knowledge distillation
搜索结果 - 1
残差知识蒸馏
本研究提出了一种名为 Residual Knowledge Distillation (RKD) 的知识蒸馏方法,通过引入辅助器来进一步提炼知识,从而解决现有方法由于学习容量间的巨大差距而导致的性能下降问题,并在 CIFAR-100 和 I
→
PDF
4 years ago
Prev
Next