通用可推广的零样本说话者自适应语音合成与解绑表示
本研究提出利用自监督分离式语音表示学习的新视角进行零样本语音转换,通过在序列变分自编码器中平衡全局说话人表示和时变内容表示之间的信息流实现分离,并应用实时数据增强培训策略以使所学表示不受噪声干扰。在 TIMIT 和 VCTK 数据集上表现出了优越性能,不仅在客观评估上表现良好,而且在主观评估方面具有鲁棒性,即使在源 / 目标语音帧存在噪声的情况下仍能保持不错的性能。
Mar, 2022
本文提出了一个高质量的语音合成系统 AdaSpeech 4,用于零样本适应性文本到语音。该系统通过将说话者特征系统地建模来提高对新说话者的泛化能力,并通过三个步骤改善了建模。除了利用条件层归一化将提取的说话人特征整合到 TTS 模型中之外,本文基于基向量的分布提出了一种新的监督损失,以在生成的 Mel 声谱图中保持相应的说话人特征。在多个数据集中,AdaSpeech 4 实现了比基线更好的语音质量和相似性,而无需进行任何微调。
Apr, 2022
现有的文本转语音(TTS)研究主要致力于提高训练数据集中演讲者合成语音的质量。为迎接有限参考数据的见外 / 未训练演讲者进一步合成真实语音的挑战,我们提出了一个整合了零样本和少样本演讲者适应策略的框架。
Apr, 2024
本研究提出了一种基于解缠表示学习的零样本语音转换方法,通过在输入语音的内容嵌入和目标样式嵌入之间进行组合来实现对新声音的转换,可以在无先验知识和非并行数据的情况下完成,方法在 VCTK 数据集上进行验证,并在许多对多和零样本实验上展现出了最新的标志性结果。
Mar, 2021
本研究提出了一种零样本文本转语音模型,使用自监督学习获取的语音表示模型进行条件控制,并引入了声学特征和音素持续时间预测器的分离调制以提高重现性能和语音转换效果。
Apr, 2023
研究了使用多说话人建模中的神经发音人嵌入对零样本适应的影响,发现使用可学习字典编码的说话人嵌入,能够在说话人验证任务中提高等误差率,在未知说话人使用时提高零样本适应性,并提高端到端语音合成的说话人相似性和自然度。
Oct, 2019
基于自监督学习的说话人嵌入提取的零样本文本到语音方法可以非常准确地再现说话人的特征。然而,当参考语音包含噪声时,这种方法的语音合成质量会降低。本文中,我们提出了一种噪声鲁棒的零样本文本到语音方法。我们将适配器融入自监督学习模型中,并使用带噪声的参考语音对其进行微调,同时采用了语音增强前端以进一步提高性能。通过客观和主观评估,我们证实了所提出方法对参考语音中的噪声具有很高的鲁棒性,并且与语音增强相结合有效地工作。
Jan, 2024
本文提出了一种零样本适应情绪可控 TTS 模型 ZET-Speech,旨在实现对任何说话者情感语音的合成,采用了域对抗学习和扩散模型的引导方法,实验结果表明,ZET-Speech 成功地合成了所需情感的自然和情感语音,适用于已知和未知说话者。
May, 2023
本文提出了一种新的无监督文本到语音(UTTS)框架,支持零样本语音克隆和高自然度、可理解度语音合成,是从分离的语音表示学习的角度开发的多说话人语音合成器,其利用了最近在自监督语音表示学习和语音合成前端技术方面的先进进展,在训练期间提供了条件分离的时序变分自编码器(C-DSVAE)作为骨干 UTTS AM。
Jun, 2022
本文提出了一个基于生成性对抗网络的语音转换模型,该模型可以在零阶设置下使用未见过的讲话者,并且在实时或更快的速度下运行,与其他语音转换技术相比,该模型在小量数据的零阶设置下表现优异。
May, 2021