Jun, 2024

无缝语言扩展:增强自监督模型中的多语言掌握能力

TL;DR我们提出了通过将 LoRA 整合到已有的自我监督模型中,实现新语言的自适应,并通过数据结合和重新聚类等保护策略来保持对已有和新语言的性能保持完整,实验证明该方法使 mHuBERT 应用于新语言(普通话)的 MOS 值增加 1.6,WER 相对值减少了 61.72%。