Sep, 2023

走向语义图像分割中的可比较知识蒸馏

TL;DR知识蒸馏可解决语义分割中的大型模型和慢速推理问题。研究中鉴定了14篇发表于近4年的25种蒸馏损失项。通过对2022年两篇论文的比较,揭示了超参数选择不当导致学生模型性能极端差异的问题。为了提高该领域的未来研究可比性,建立了三个数据集和两种学生模型的坚实基线,并提供了大量有关超参数调整的信息。在ADE20K数据集上,发现只有两种技术能与我们简单的基线相竞争。