我们提出了基于多教师多层知识蒸馏学习框架的自适应学习方法,该方法通过将每个教师与潜在表示相关联,自适应地学习实例级教师重要性权重,从而获取集成的高级知识,并通过多组提示策略从多个教师处汇集中间级知识。实验表明,该方法确保学生比强竞争者取得了更好的性能。
Mar, 2021
该研究提出了一种自适应分配逐样本可靠度的方法,以每个教师的预测可信度来稳定知识转移过程,并结合中间层来提高学生成绩,在不同的教师 - 学生架构下,优于所有其他现有方法。
Dec, 2021
本文提出一种多模型和多级别知识蒸馏策略,通过直接利用之前的模型快照和辅助蒸馏等方式,在保留旧类知识的同时提升整体性能,有效解决了旧类性能下降的问题。
Apr, 2019
本文提出了一种基于多任务学习的知识蒸馏方法,用于训练轻量级的预训练模型,该方法适用于不同的教师模型体系结构,并且相较于传统上基于 LSTM 的方法,具有更好的语言表达能力和更快的推理速度。
Nov, 2019
本文提出了一种基于深度学习并利用弱监督检测模型去除物体标注信息的多标签图像分类方法,该方法能有效提高性能并保持高效。实验证明该方法在两个大型数据集(MS-COCO 和 NUS-WIDE)上均优于现有的先进方法。
Sep, 2018
本文提出了一种基于知识蒸馏的多任务学习方法。通过先学习任务特定的模型,再学习多任务模型,该方法可以解决多任务学习中的不平衡问题,以实现更好的整体性能。
Jul, 2020
本文提出了一种基于多源知识蒸馏的 3D 点云语义分割方法,采用多到单的融合方式,通过实例感知亲和性蒸馏算法获取高级结构知识,实现对于难分类类别的提升。在 SemanticKITTI 数据集中实验证明,该方法在验证集和测试集上均显著优于基线方法。
Apr, 2023
本研究实现了一种多级知识蒸馏方法,将自监督学习与基于语言模型的强制学习相结合,以生成新颖的 OoD 检测方案,并在多个基准数据集上实现了最新的性能。
Nov, 2022
本文提出了一种在线知识蒸馏方法,在对抗训练框架下同时传输分类概率和特征图的知识,并使用判别器区分不同网络的特征图分布进行训练,比传统的直接对齐方法(如 L1)更适用于在线蒸馏,在多个网络之间引入循环学习方案,实验表明该方法的性能显著提高,特别是在训练一对小型和大型网络的情况下。
Feb, 2020
本研究旨在探究神经网络在医学图像分割任务中的知识迁移可行性,特别关注从大规模多任务的 “教师” 网络向更小的 “学生” 网络的迁移。我们通过多尺度特征蒸馏和监督对比学习的结构,通过整合从教师模型获取的知识表示来提高学生模型的性能,并通过大量实验和消融研究评估了多尺度特征蒸馏的影响,以及不同损失对知识迁移的整体性能的影响。
Jun, 2024