BriefGPT.xyz
Ask
alpha
关键词
full-sum distillation
搜索结果 - 1
使用完整加和损失从带有噪声训练标签的 RNN-T 模型中进行鲁棒的知识蒸馏
研究使用知识蒸馏来训练循环神经网络转录器模型的限制,并探讨如何有效地从不同质量的 ASR 教师中蒸馏知识。我们发现,全加和蒸馏方法在 RNN-T 模型中表现最佳,特别是在针对质量差的教师时,另外我们还提出了一种变体的全加和蒸馏方法,提高了
→
PDF
a year ago
Prev
Next