本文介绍了一种新的知识蒸馏方法,使用自我监督信号作为辅助任务来提取自预训练教师模型中的丰富知识,并将其成功地传递到学生网络中,从而实现了在各种基准测试下的表现优异。
Jun, 2020
提出了一种名为 “自蒸馏” 的卷积神经网络训练框架,通过将网络大小缩小而不是扩大来显著提高卷积神经网络的性能(准确性)。它与传统的知识蒸馏不同,后者是将预训练的教师神经网络的输出作为 softmax 层输出的近似值强制学生神经网络去逼近。该框架将知识内化到网络本身,对深度方面的可伸缩推理提供了灵活性,能够在资源有限的边缘设备上运行。
May, 2019
通过对同标签样本之间的预测分布进行正则化,使得深度神经网络在图像分类任务中显著提高预测能力和置信度表现的一种新的正则化方法。
Mar, 2020
该论文提出了一种两阶段的学习方法,通过最大化特征嵌入的熵来创造一个最佳输出流形,并通过自我监督的双胞胎约束流形,最小化特征嵌入的熵来提高深度神经网络在少样本学习任务中的表示能力。
本文提出了一种基于图的蒸馏框架,将来自多个自监督任务的知识进行传递和压缩,以提高视频表示的学习效果和模型推理速度。
Apr, 2018
本文提出了一种基于单阶段在线知识蒸馏的自我监督学习法 Distill-on-the-Go (DoGo),采用深度互联策略,通过对齐两个模型的相似度得分的 softmax 概率来提供更好的表征质量,实验结果表明,该方法在存在噪声和有限标签以及区分数据方面具有显著性能提升和泛化能力
Apr, 2021
本文介绍了一种在线知识蒸馏框架,通过选择和交换可靠知识来协同学习基于卷积神经网络(CNN)和视觉变压器(ViT)的模型,以进行语义分割。经过大量实验验证,我们提出的框架在大幅领先于现有的在线蒸馏方法的同时,展示了 ViT 和 CNN 模型之间协同学习的有效性。
Jul, 2023
本文提出了一种自监督增强的任务,通过辅助分类器在分层中间特征图中生成多样化的自监督知识,并执行一对一的转移来全面教授学生网络,从而改善表示能力而不失去正常分类能力。在多个网络对中,本方法都显著超过了之前的最佳结果,平均改进了 2.56%(CIFAR-100)和 0.77%(ImageNet)。
Jul, 2021
本文提出了一种新的有监督掩蔽知识蒸馏模型 (SMKD),将标签信息融入到自我蒸馏框架中,通过在类和图块标记上进行内部类知识蒸馏,并引入在类内图像中对屏蔽图块标记重构的挑战性任务,我们比以前的自我监督方法实现了更好的结果,实验结果显示,我们的方法在四个 few-shot 分类基准数据集上的性能优于以往方法。
Mar, 2023
该论文探讨了自我监督方法在无监督视觉表示学习中的重要性,提出之前 CNN 设计的标准配方不一定适用于自我监督表示学习, 并大幅度提高了之前提出技术的性能,超越了之前公布的最先进结果。
Jan, 2019