CVPRApr, 2023
基于类别注意力转移的知识蒸馏
Class Attention Transfer Based Knowledge Distillation
Ziyao Guo, Haonan Yan, Hui Li, Xiaodong Lin
TL;DR提出了一种基于类别注意力传递的知识蒸馏(CAT-KD)方法,该方法不仅具有高解释性,还在多个基准测试中实现了最先进的性能,通过传输课程激活地图,从而提供了关于 CNN 的更好的理解,并改进了 CAT-KD 的解释性。
Abstract
Previous knowledge distillation methods have shown their impressive
performance on model compression tasks, however, it is hard to explain how the
knowledge they transferred helps to improve the performance of the student
network. In this work, we focus on proposing a →
发现论文,激发创造
准备教材:利用更好的监督改进知识蒸馏
本研究提出了两种新颖的方法,知识调整(KA)和动态温度蒸馏(DTD),用于惩罚错误监督并改善学生模型,实验表明该方法在各种评测数据集上,以及与其他基于知识蒸馏的方法相结合时,都能获得鼓舞人心的表现。
Nov, 2019
基于生成模型的特征知识蒸馏用于行为识别
本研究提出了一种创新的知识蒸馏框架,利用生成模型训练轻量级学生模型,通过特征表示和基于生成模型的特征蒸馏阶段,转移基于注意力的特征语义,在视频动作识别任务中显示出显著的性能改进。
Dec, 2023
残差知识蒸馏
本研究提出了一种名为 Residual Knowledge Distillation (RKD) 的知识蒸馏方法,通过引入辅助器来进一步提炼知识,从而解决现有方法由于学习容量间的巨大差距而导致的性能下降问题,并在 CIFAR-100 和 ImageNet 等流行分类数据集上取得优异的成果,超过了现有方法的最新水平。
Feb, 2020
$V_kD:$ 使用正交投影来改进知识蒸馏
通过特征蒸馏方法,我们的研究提出了一种新的约束特征蒸馏方法,该方法可以应用于训练小型高效的深度学习模型,并在 ImageNet 数据集上获得了显著的性能提升。
Mar, 2024
从 CNN 提炼高效的视觉 Transformer 用于语义分割
我们提出了一种 CNN 到 ViT 知识蒸馏框架,包括视觉语言特征蒸馏模块 (VLFD) 和像素级解耦蒸馏模块 (PDD),实验证明我们的方法在三个语义分割基准数据集上的 mIoU 增量是最先进知识蒸馏方法的 200% 以上。
Oct, 2023
光学遥感图像中基于注意力特征蒸馏的高效目标检测
提出了一种新的注重注意力的特征蒸馏(AFD)方法,通过从教师检测器中蒸馏本地和全局信息,实现了目标检测模型在资源有限的边缘设备上的高效性能。
Oct, 2023