知识蒸馏是一种将复杂模型压缩为更小更简单的技术,本论文综述了知识蒸馏的原理、技术和在计算机视觉领域的应用,并专注于探讨知识蒸馏的好处以及提高其有效性所需克服的问题。
Apr, 2024
本文旨在提出一种基于知识蒸馏的部分多任务学习方法,以克服在缺乏所有任务标注的情况下进行全面多任务学习的次优性,并通过在航空图像中进行的对象检测和语义分割等语义任务的实验验证了该方法的有效性。
May, 2024
知识蒸馏和半监督学习方法相结合的半监督学习知识蒸馏(SSLKD)方法在道路分割应用中表现出显著的学生模型性能提升,超过传统半监督学习方法的效果。
Feb, 2024
本文提出了一种基于本地化知识蒸馏的方法,在目标检测中通过学习有价值的本地化区域知识和确定哪些区域应该用于蒸馏来提高 AP 得分。这种简单而有效的知识蒸馏技术可以优化深度学习模型的性能。
Feb, 2021
通过综合考虑分类和回归任务的重要性差异,在目标检测中提出了一种能够应对知识蒸馏中偏见预测问题的方法。
该论文从知识分类、训练方案、教师 - 学生架构、蒸馏算法、性能比较和应用等方面全面调查了知识蒸馏。并简要回顾了知识蒸馏中的挑战,并探讨了未来的研究方向。
Jun, 2020
本研究针对目标检测中知识蒸馏问题,通过分析教师和学生模型行为差异提出了基于 Rank Mimicking 和 Prediction-guided Feature Imitation 的知识蒸馏方法,有效地提高了学生模型的精确度和加速度。
Dec, 2021
本文提出了一种通过知识蒸馏实现基于点云进行三维物体检测的方法,该方法通过两阶段的训练流程,使得在测试时基于低质量数据的模型性能得到提升。
Sep, 2020
本文介绍了一种用于减小大规模计算机视觉模型尺寸、同时不影响性能的知识蒸馏方法,并且明确了影响该方法有效性的设计选择。通过全面的实验研究,我们在多种视觉数据集上获得了令人信服的结果,并实现了在 ImageNet 数据集上的 ResNet-50 模型的最新表现,其 top-1 准确率为 82.8%。
Jun, 2021
本文提出了一种名为 CrossKD 的知识蒸馏方法,该方法通过将学生的检测头的中间特征输出到老师的检测头,从而将跨头预测强制与老师的预测相同,以提高学生的检测性能,并在 MS COCO 上得到了验证,性能优于所有现有的目标检测方法。
Jun, 2023