Mar, 2023
文本和语音预训练模型之间的自适应知识蒸馏
Adaptive Knowledge Distillation between Text and Speech Pre-trained Models
Jinjie Ni, Yukun Ma, Wen Wang, Qian Chen, Dianwen Ng...
TL;DR本文介绍了一种通过度量学进行知识蒸馏以改善文本和音频的嵌入向量的对齐,提出了 Prior-informed Adaptive knowledge Distillation (PAD) 方法,该方法具有更好的文本语音模型之间的传输能力,我们在三个口语理解基准测试中进行了评估。