BriefGPT.xyz
Ask
alpha
关键词
logit distillation
搜索结果 - 1
CVPR
解耦式知识蒸馏
通过将传统的知识蒸馏 (KD) 损失重构为 TCKD 和 NCKD 两部分,本文证明了 logit distillation 方法的潜在价值,并提出了解耦知识蒸馏 (DKD) 方法以更高效地发挥 TCKD 和 NCKD 的作用,从而在图像分
→
PDF
2 years ago
Prev
Next