May, 2023
端到端逐步增量式语音理解的序列级知识蒸馏
Sequence-Level Knowledge Distillation for Class-Incremental End-to-End Spoken Language Understanding
Umberto Cappellazzo, Muqiao Yang, Daniele Falavigna, Alessio Brutti
TL;DR该研究提出了三种知识蒸馏方法,通过应用于声音编码器 (audio-KD) 和解码器 (tok-KD 和 seq-KD) 以解决神经网络在非稳态环境下学习新概念的问题,特别应用于连续学习等领域的口语理解问题。结果表明,seq-KD 可以显著提高性能,并与 audio-KD 的结合进一步降低了平均 WER 并增强了实体预测指标。