视觉识别快速知识蒸馏框架
FerKD 是一种新的高效知识蒸馏框架,结合了部分软硬标签自适应和区域校准机制;采用自校正的软化逼近于真实标签的较不可信可信区域机制作为背景,显著提高了收敛速度和最终准确性,并在 ImageNet-1K 和下游任务中取得显著改进。
Dec, 2023
提出一种名为 Full-stack FL 的新型联邦学习框架,通过使用分层网络架构和标签驱动的知识蒸馏技术,解决大规模 IoT 网络下的可扩展性问题和异构数据环境下的鲁棒性问题,从而在所有全局蒸馏中显著提高了联邦学习的效率。
Sep, 2022
本文提出了一种名为 CrossKD 的知识蒸馏方法,该方法通过将学生的检测头的中间特征输出到老师的检测头,从而将跨头预测强制与老师的预测相同,以提高学生的检测性能,并在 MS COCO 上得到了验证,性能优于所有现有的目标检测方法。
Jun, 2023
我们提出了一种名为 DFKD-FGVC 的方法,它扩展了 DFKD 到细粒度视觉分类任务,使用了对抗蒸馏框架、注意力生成器、混合高阶注意力蒸馏和语义特征对比学习,以实现更好的性能表现。
Apr, 2024
研究如何应用知识蒸馏策略到目标检测中,同时提出了一种适用于同质和异质教师 - 学生的有效框架。通过提出一种新的语义引导特征模仿技术,以及引入对比蒸馏来有效地捕捉不同区域的信息编码关系,我们的方法在多个检测基准上持续优于现有的检测 KD 技术。
Aug, 2021
本研究针对目标检测中知识蒸馏问题,通过分析教师和学生模型行为差异提出了基于 Rank Mimicking 和 Prediction-guided Feature Imitation 的知识蒸馏方法,有效地提高了学生模型的精确度和加速度。
Dec, 2021
使用频率领域的知识蒸馏方法进行密集预测任务时,Frequency Knowledge Distillation(FreeKD)在吸收语义频率上下文、定位像素兴趣点和提供高阶空间增强等方面取得了比基于空间的蒸馏方法更好的效果。
Nov, 2023
本文提出了一种基于深度学习并利用弱监督检测模型去除物体标注信息的多标签图像分类方法,该方法能有效提高性能并保持高效。实验证明该方法在两个大型数据集(MS-COCO 和 NUS-WIDE)上均优于现有的先进方法。
Sep, 2018
该论文开发了一种名为鲁棒特征知识蒸馏(RFKD)的框架,通过从教师模型的逻辑层和中间特征图中提取知识,并利用混合的清晰和噪声图像将稳定的模式传递给学生模型,提高其精度、泛化性能和抗噪声性能,从而改善轻型裂缝分割模型的鲁棒性。验证结果表明,在噪声图像上,RFKD 相比于最先进的知识蒸馏方法在平均 Dice 分数上提高了 62%。
Apr, 2024
知识蒸馏可解决语义分割中的大型模型和慢速推理问题。研究中鉴定了 14 篇发表于近 4 年的 25 种蒸馏损失项。通过对 2022 年两篇论文的比较,揭示了超参数选择不当导致学生模型性能极端差异的问题。为了提高该领域的未来研究可比性,建立了三个数据集和两种学生模型的坚实基线,并提供了大量有关超参数调整的信息。在 ADE20K 数据集上,发现只有两种技术能与我们简单的基线相竞争。
Sep, 2023