为了提高流式自动语音识别的性能,本文提出了一种从非流式模型到流式模型的逐层知识蒸馏方法,并通过自动回归预测编码机制鼓励流式模型预测未见的未来语境,实验证明该方法能显著降低错误率。
Aug, 2023
提出了一种利用多源信息进行自知识蒸馏的轻量级框架,其中包括反向引导方法和形状正则化方法,其在各种数据集和模型上的综合实验中表现优于基线和最先进的自知识蒸馏方法,同时具有计算效率和鲁棒性。
May, 2023
通过使用中间层和最终层,本研究提出了一种将 BERT 教师模型的知识蒸馏到自动语音识别模型中的新方法。实验证明,使用中间层作为蒸馏目标可以更有效地将语言模型知识蒸馏到较低的网络层,从而实现比外部语言模型的浅层融合更好的识别准确性,同时保持了快速并行解码。
Jan, 2024
本论文提出一种基于知识蒸馏(KD)的模型训练策略,通过将教师模型学到的知识传输给学生模型,简化深度神经网络(DNN)学生模型并实现了显著的精度提高,使用多个教师模型进行训练进一步提高了学生模型的准确性。包括教师门控以及蒸馏损失提前停止等创新方法在内的多个实验表明了基于知识蒸馏的训练策略的有效性。
Nov, 2020
本文通过引入自我知识蒸馏框架来改善手术阶段识别模型,实验结果表明,基于这一框架的模型在 4 种流行的 state-of-the-art 方法上的准确度和 F1-score 分别提高了 3.33%和 3.95%,并且即使使用 75%的训练集,其性能仍与完整训练集上基线模型的性能相当。
Jun, 2023
本研究提出使用 BERT 来优化基于 CTC 的自动语音识别,通过计算最合理的 CTC 路径获得对齐,并且不影响 CTC 的快速推理速度。实验结果显示,该方法提高了识别准确率而不影响推理速度。
Sep, 2022
本文提出了一种新的基于相关性的一致性知识蒸馏框架 (CCKD),通过引入泰勒级数展开的广义核方法捕获实例间的相关性,并在图像分类任务和度量学习任务中实现了最优结果。
Apr, 2019
本文研究了卷积神经网络和自注意力机制模型之间的交互作用,通过知识蒸馏将它们作为师生模型相互训练,在 FSD50K、AudioSet 和 ESC-50 等数据集上取得了新的最好成绩。
Mar, 2022
本研究提出了两种新颖的方法,知识调整(KA)和动态温度蒸馏(DTD),用于惩罚错误监督并改善学生模型,实验表明该方法在各种评测数据集上,以及与其他基于知识蒸馏的方法相结合时,都能获得鼓舞人心的表现。
Nov, 2019
本文提出了一种新的自知识蒸馏方法,通过孪生表示学习来最小化给定样本的两个不同视图的表示向量之间的差异,并利用软标签蒸馏和表示向量的相似性,因此能够在同一数据点的各种视图中生成更一致的预测和表示,并在各个标准数据集上验证了其显着提高精确度的效果。