Mar, 2023

文本和语音预训练模型之间的自适应知识蒸馏

TL;DR本文介绍了一种通过度量学进行知识蒸馏以改善文本和音频的嵌入向量的对齐,提出了 Prior-informed Adaptive knowledge Distillation (PAD) 方法,该方法具有更好的文本语音模型之间的传输能力,我们在三个口语理解基准测试中进行了评估。