BriefGPT.xyz
Ask
alpha
关键词
intra- and inter-class knowledge distillation
搜索结果 - 1
I2CKD:用于语义分割的课内和课间知识蒸馏
这篇论文提出了一种针对图像语义分割的新型知识蒸馏方法,称为 Intra- and Inter-Class Knowledge Distillation(I2CKD)。该方法的重点是捕捉和转移教师(笨重模型)和学生(紧凑模型)的中间层之间的知
→
PDF
3 months ago
Prev
Next