Jun, 2023

DistilXLSR: 轻量级跨语言语音表示模型

TL;DR本文介绍了一种基于 DistilXLSR 的语音表征模型,通过随机打乱现有语音的音素,降低语言信息,在只使用英语数据的情况下,压缩跨语言模型并设计一种层级初始化方法,成功减少 50% 参数并在 15 种低资源语言和 2 种教师模型的实验中保持了跨语言表征能力,证明了其在各种语言 / 教师模型中具有普适性,有潜力提高英语预训练模型的跨语言性能。