Sep, 2024

利用构建的代码切换数据增强大语言模型的多语言语音生成和识别能力

TL;DR本研究解决了当前大语言模型在多语言和代码切换语境中应用的不足,提出了一种多语言多任务(MLMT)模型,将语音生成与识别任务整合在一起。我们的数据构建方法无须依赖代码切换数据即可实现语音合成,实验结果显示该模型在多语言语音生成和识别任务中明显优于其他基线模型。