层次自监督增强知识蒸馏
本文介绍了一种新的知识蒸馏方法,使用自我监督信号作为辅助任务来提取自预训练教师模型中的丰富知识,并将其成功地传递到学生网络中,从而实现了在各种基准测试下的表现优异。
Jun, 2020
本文提出了将 Self-KD 应用于图像混合 (MixSKD) 的方法,该方法能够将原始图像和混合图像之间的特征映射和概率分布相互蒸馏,以便以跨图像的知识指导网络的学习,实验表明该方法优于其他最先进的 Self-KD 和数据增强方法。
Aug, 2022
本文提出了一种新的自知识蒸馏方法,通过孪生表示学习来最小化给定样本的两个不同视图的表示向量之间的差异,并利用软标签蒸馏和表示向量的相似性,因此能够在同一数据点的各种视图中生成更一致的预测和表示,并在各个标准数据集上验证了其显着提高精确度的效果。
Sep, 2022
本文提出了一种名为 FRSKD 的自我知识蒸馏方法,利用辅助自主教师网络传输分类器网络的精细化知识。该方法可应用于分类和语义分割等多样化任务,并证明其在各种任务和基准数据集中的性能提升
Mar, 2021
本文通过研究 AutoAugment 算法的工作机制发现其依赖于数据标签的问题,并采用知识蒸馏的方法来改进网络优化,实验结果表明我们的方法可以有效抑制数据扰动并提高准确率。
Mar, 2020
本研究旨在探究神经网络在医学图像分割任务中的知识迁移可行性,特别关注从大规模多任务的 “教师” 网络向更小的 “学生” 网络的迁移。我们通过多尺度特征蒸馏和监督对比学习的结构,通过整合从教师模型获取的知识表示来提高学生模型的性能,并通过大量实验和消融研究评估了多尺度特征蒸馏的影响,以及不同损失对知识迁移的整体性能的影响。
Jun, 2024
由于数据不平衡和缺陷的多样性,学生 - 教师网络(S-T)在无监督异常检测中备受青睐,它通过知识蒸馏过程中从特征表示中探索差异来识别异常。文章通过构建新颖的双学生知识蒸馏(DSKD)架构来解决原生 S-T 网络不稳定的问题,该架构的关键在于使用两个具有相同尺度但结构相反的学生网络和一个单一预训练的教师网络。通过两种策略,即金字塔匹配模式和深度特征嵌入模块,以捕捉异常线索的高维语义信息,该架构可以增强蒸馏效果、改善正常数据的一致性识别,并同时引入多样性来表示异常,最终通过像素级异常分割图和样本判定的异常得分,实现了对三个基准数据集的评估和对内部模块的消融实验,结果显示 DSKD 在小型模型(如 ResNet18)上实现了卓越的性能,并有效改进了原生 S-T 网络。
Feb, 2024
提出了一种利用多源信息进行自知识蒸馏的轻量级框架,其中包括反向引导方法和形状正则化方法,其在各种数据集和模型上的综合实验中表现优于基线和最先进的自知识蒸馏方法,同时具有计算效率和鲁棒性。
May, 2023
该论文提出了一种两阶段的学习方法,通过最大化特征嵌入的熵来创造一个最佳输出流形,并通过自我监督的双胞胎约束流形,最小化特征嵌入的熵来提高深度神经网络在少样本学习任务中的表示能力。
Jun, 2020