Mar, 2023
使用完整加和损失从带有噪声训练标签的RNN-T模型中进行鲁棒的知识蒸馏
Robust Knowledge Distillation from RNN-T Models With Noisy Training
Labels Using Full-Sum Loss
TL;DR研究使用知识蒸馏来训练循环神经网络转录器模型的限制,并探讨如何有效地从不同质量的ASR教师中蒸馏知识。我们发现,全加和蒸馏方法在RNN-T模型中表现最佳,特别是在针对质量差的教师时,另外我们还提出了一种变体的全加和蒸馏方法,提高了WRE。