Mar, 2023

使用完整加和损失从带有噪声训练标签的 RNN-T 模型中进行鲁棒的知识蒸馏

TL;DR研究使用知识蒸馏来训练循环神经网络转录器模型的限制,并探讨如何有效地从不同质量的 ASR 教师中蒸馏知识。我们发现,全加和蒸馏方法在 RNN-T 模型中表现最佳,特别是在针对质量差的教师时,另外我们还提出了一种变体的全加和蒸馏方法,提高了 WRE。