低分辨率检测的多尺度对齐蒸馏
通过知识蒸馏实现不同分辨率模型的性能提升,包括构建一个跨领域知识蒸馏框架,以及使用尺度自适应的投影仪集合模块来空间对齐输入分辨率不同的模型的特征图,进一步通过交叉类别对齐模块和从易到难的训练策略提高蒸馏性能。在 MPII 和 COCO 两个常见基准数据集上进行了大量实验证明了我们方法的有效性和效率。
May, 2024
在数字病理学中,为了解决大型全幻灯片图像的计算限制问题,该研究提出了使用知识蒸馏和注意力图来提高模型性能,实验证明该方法在不同图像分辨率下显著改善了模型性能。
Jan, 2024
对于计算和内存资源有限的感知系统,我们提出了一种简单但非常有效的序列化方法来通过知识蒸馏来提高轻量级分类模型的性能,并成功将基于 Transformer 的教师检测器的知识转化到基于卷积的学生检测器上,从而显著提升了 MS COCO 基准测试上 RetinaNet 和 Mask R-CNN 的性能。
Aug, 2023
本研究旨在探究神经网络在医学图像分割任务中的知识迁移可行性,特别关注从大规模多任务的 “教师” 网络向更小的 “学生” 网络的迁移。我们通过多尺度特征蒸馏和监督对比学习的结构,通过整合从教师模型获取的知识表示来提高学生模型的性能,并通过大量实验和消融研究评估了多尺度特征蒸馏的影响,以及不同损失对知识迁移的整体性能的影响。
Jun, 2024
我们提出了一种新颖的多教师知识蒸馏(MTKD)框架,专门用于图像超分辨率,通过结合和增强多个教师模型的输出来指导紧凑的学生网络的学习过程,并通过在空间和频率域中观察差异来优化训练过程,从而在超分辨率性能上实现了明显的改善。
Apr, 2024
提出了一种新的注重注意力的特征蒸馏(AFD)方法,通过从教师检测器中蒸馏本地和全局信息,实现了目标检测模型在资源有限的边缘设备上的高效性能。
Oct, 2023
该论文提出了一种基于知识蒸馏的对象检测模型微调方法,采用区域提议共享机制和自适应知识转移方法,根据模型的不同表现区分性能好坏,同时使用知识衰减策略帮助提高模型的泛化性能。实验结果表明,该方法在 COOC 数据集上取得了比基线模型更好的检测结果。
Jun, 2020
本文提出了一种基于细粒度特征模拟的知识蒸馏方法,以改善在复杂的目标检测任务中使用小型学生模型所遇到的性能瓶颈,通过估算目标附近的区域并让学生模型在这些区域上模仿教师模型,使得学生模型在性能表现上提高了 15% 到 74%。
Jun, 2019
本研究旨在通过将专家网络的特征进行 “蒸馏” 以学习无监督表示,并使用这些特征检测和定位异常区域,证明了结合多个中间提示的蒸馏方法能够更好地利用专家网络的知识,并显著提高在多个数据集上进行异常检测和定位的性能。
Nov, 2020
本篇论文提出了一种新型的知识蒸馏方法,采用一对所有的空间匹配,提高小型神经网络的性能,不同于以往的一对一的空间匹配,从而导致所有的空间位置通常都具有不同的语义信息。该方法在各种计算机视觉基准测试中都超过了最先进的方法。
May, 2022