该论文提出了一种基于知识蒸馏的对象检测模型微调方法,采用区域提议共享机制和自适应知识转移方法,根据模型的不同表现区分性能好坏,同时使用知识衰减策略帮助提高模型的泛化性能。实验结果表明,该方法在 COOC 数据集上取得了比基线模型更好的检测结果。
Jun, 2020
对于计算和内存资源有限的感知系统,我们提出了一种简单但非常有效的序列化方法来通过知识蒸馏来提高轻量级分类模型的性能,并成功将基于 Transformer 的教师检测器的知识转化到基于卷积的学生检测器上,从而显著提升了 MS COCO 基准测试上 RetinaNet 和 Mask R-CNN 的性能。
Aug, 2023
本文提出了一种基于细粒度特征模拟的知识蒸馏方法,以改善在复杂的目标检测任务中使用小型学生模型所遇到的性能瓶颈,通过估算目标附近的区域并让学生模型在这些区域上模仿教师模型,使得学生模型在性能表现上提高了 15% 到 74%。
Jun, 2019
本文提出了一种基于深度学习并利用弱监督检测模型去除物体标注信息的多标签图像分类方法,该方法能有效提高性能并保持高效。实验证明该方法在两个大型数据集(MS-COCO 和 NUS-WIDE)上均优于现有的先进方法。
Sep, 2018
本研究提出了自行蒸馏 (self-distillation) 框架,在物体检测领域有显著的性能提升,无需强大的预训练模型,同时还将训练成本降低了 51%。
Sep, 2021
利用 discriminative instances,我们提出了一个叫做 general instance distillation(GID)的检测任务中的知识蒸馏方法,其学生模型在不同的检测框架中都实现了显著的 AP 改进,甚至在 COCO 数据集上超过了教师模型。
Mar, 2021
本文提出了一种条件蒸馏框架来对检测任务进行知识蒸馏,其中使用可学习的条件解码模块来检索每个目标实例作为查询的信息,并使用关注机制来度量不同特征的贡献,通过本地化识别敏感辅助任务进行指导,实验结果展示了我们方法的有效性。
Oct, 2021
提出一种基于特征的知识不确定性蒸馏范式,能够与现有的蒸馏方法无缝集成,通过蒙特卡洛 dropout 技术引入知识不确定性,提高学生模型对潜在知识的探索能力,并在目标检测任务中获得有效性验证。
Jun, 2024
该论文提出了一种解决知识蒸馏中错误监督的问题的方法,即通过标签修正纠正教师模型的错误预测,并引入数据选择技术以减少错误监督的影响,实验证明该方法的有效性,并表明该方法可以与其他蒸馏方法相结合,提高其性能。
Apr, 2024
本文提出了 Label Assignment Distillation (LAD) 和 Co-learning LAD 用于目标检测中标签分配的问题,实验结果表明 LAD 更有效且可与 soft-label 相结合,以及使用较小的 Teacher 网络也能够显著提高表现。
Aug, 2021