BriefGPT.xyz
May, 2022
利用距离亮点聚合技术提升语义分割
Distilling Inter-Class Distance for Semantic Segmentation
HTML
PDF
Zhengbo Zhang, Chunluan Zhou, Zhigang Tu
TL;DR
本文提出一种基于知识蒸馏的语义分割方法,通过引入Inter-class Distance Distillation (IDD)模块来转移特征空间中的跨类距离,同时利用位置信息蒸馏模块来提高学生网络的位置编码能力,实验结果表明,该方法可以大幅度提高语义分割模型的准确性,达到state-of-the-art的性能水平。
Abstract
knowledge distillation
is widely adopted in
semantic segmentation
to reduce the computation cost.The previous
knowledge distillation
metho
→