使用频率领域的知识蒸馏方法进行密集预测任务时,Frequency Knowledge Distillation(FreeKD)在吸收语义频率上下文、定位像素兴趣点和提供高阶空间增强等方面取得了比基于空间的蒸馏方法更好的效果。
Nov, 2023
提出了一种新的注重注意力的特征蒸馏(AFD)方法,通过从教师检测器中蒸馏本地和全局信息,实现了目标检测模型在资源有限的边缘设备上的高效性能。
Oct, 2023
本文提出一种利用基于注意力的元网络来实现特征蒸馏的方法,该方法在不手动选择链接的情况下有效地控制了所有可能的特征对的蒸馏强度,从而提供了更好的模型压缩和迁移学习任务的性能。
Feb, 2021
提出了一种基于类别注意力传递的知识蒸馏(CAT-KD)方法,该方法不仅具有高解释性,还在多个基准测试中实现了最先进的性能,通过传输课程激活地图,从而提供了关于 CNN 的更好的理解,并改进了 CAT-KD 的解释性。
Apr, 2023
知识蒸馏是一种将深度神经网络的知识转移到更小更快的神经网络中的方法,近期变体包括教学助理蒸馏、课程蒸馏、遮罩蒸馏和解耦蒸馏等,致力于通过引入额外的组件或改变学习过程来提高知识蒸馏的性能。
本研究提出了一种创新的知识蒸馏框架,利用生成模型训练轻量级学生模型,通过特征表示和基于生成模型的特征蒸馏阶段,转移基于注意力的特征语义,在视频动作识别任务中显示出显著的性能改进。
Dec, 2023
本文提出了一种新颖的知识蒸馏方法,通过多头注意力网络从大型教师网络中提取基于数据集的知识,并进行多任务学习,大大提高了小型学生网络的性能。
Jul, 2019
本篇论文提出了一种新型的知识蒸馏方法,采用一对所有的空间匹配,提高小型神经网络的性能,不同于以往的一对一的空间匹配,从而导致所有的空间位置通常都具有不同的语义信息。该方法在各种计算机视觉基准测试中都超过了最先进的方法。
May, 2022
本文提出一种通过量化空间来传输知识、学习教师网络中的主视觉概念的知识蒸馏方法,通过对多种网络结构和常用基准数据集的广泛评估,证明了该方法优于现有的知识蒸馏方法。
Dec, 2019
基于图知识的蒸馏方法结合多级特征对齐策略和注意力引导机制,利用谱嵌入的技术将学生模型的特征空间与教师网络的关系和结构复杂性相融合,通过全局视角理解和利用特征集之间的动态关系,从而更准确地模仿教师模型的复杂结构性依赖关系,实验证明该方法在 CIFAR-100、MS-COCO 和 Pascal VOC 数据集上的效果优于以往的特征蒸馏方法,证明其有效性和适用性。
May, 2024