DiffVoice: 基于潜在扩散的文本到语音
本文介绍了一种新型非自回归 TTS 模型 Diff-TTS,以噪声信号与扩散时间步长探索去噪扩散框架,同时引入基于可能性的 TTS 优化方法,利用加速采样方法提高波形合成速度,实验证明 Diff-TTS 单独搭载一枚 NVIDIA 2080Ti 显卡比实时生成快 28 倍,并且质量良好。
Apr, 2021
本研究提出了一种利用神经音频编解码器和扩散模型生成取定潜向量的文本转语音系统,同时设计了自然语音提示机制以促进扩散模型和时域 / 频域预测器的上下文学习,能够实现不同说话人以及多样化合成的语音转换。实验表明,在零样本情况下,与之前的 TTS 系统相比,本系统在语调、音色相似度、鲁棒性和音质方面都有显著的提高,并能通过只提供语音提示来实现新的零样本歌唱合成。
Apr, 2023
DiffuseST 是一种低延迟的直接语音到语音翻译系统,能够在将多种源语言翻译为英语时保持输入讲话人的声音;我们通过比较基于 Tacotron 的合成器和基于扩散的合成器,发现基于扩散的合成器在提高音频质量度量 MOS 和 PESQ 各自达到 23%以及讲话人相似度提高 5%的同时,保持相当的 BLEU 得分;尽管参数数量超过两倍,扩散合成器具有更低的延迟,使整个模型的运行速度超过实时的 5 倍以上。
Jun, 2024
本文对音频扩散模型进行了调查,针对文本转语音和语音增强这两个活跃任务,它将方法分为三类,即声学模型、波导合成和端到端框架,并通过添加或去除特定信号将各种语音增强任务进行分类,最后进行实验结果比较和讨论。
Mar, 2023
利用大规模扩散模型做无领域特定建模的语音合成,通过跨注意机制和对语音表示总长度的预测来解决文本 - 语音对齐的问题,在语音的潜在空间中结合语义引导进行提升。该模型在 82K 小时的训练数据和 790M 参数的模型规模上进行了训练,实验证明它在自然度、可懂度和说话人相似度等指标上不仅简化了训练流程,而且具有与最先进的 TTS 模型相媲美的零 - shot 性能。
Jun, 2024
通过使用基于扩散的潜在韵律生成器和韵律条件对抗训练的新方法 DiffProsody,本研究证实了其在生成韵律向量方面的有效性,并且韵律条件鉴别器通过准确模拟韵律极大提高了生成语音的质量。使用去噪扩散生成对抗网络提高了韵律生成的速度,因此 DiffProsody 能够比传统的扩散模型生成韵律的速度快 16 倍。通过实验证明了我们提出的方法具有卓越的性能。
Jul, 2023
通过结合两种离散语音表示形式并使用两个序列到序列任务解耦合 TTS,最近在对可以以最低限度的监督进行训练的 TTS 方法中产生了越来越大的兴趣。我们提出了 Diff-LM-Speech,它在扩散模型的基础上将语义嵌入建模为基于 mel-spectrogram,并引入了基于变分自动编码器和韵律瓶颈的提示编码结构,以提高提示表示能力。我们还提出了 Tetra-Diff-Speech,通过设计一个持续时间扩散模型来实现多样化的韵律表达。同时,我们提出了 Tri-Diff-Speech 来验证语义编码的必要性。实验结果表明,我们的方法优于基准方法。我们提供了一个包含音频样本的网站。
Jul, 2023
深入探讨了在 Text-to-Speech(TTS)模型中通过在冻结的预训练模型中增加以联合语义音频 / 文本嵌入为条件的扩散模型来增强表达能力控制的挑战。论文识别了使用基于 VAE 的 TTS 模型时遇到的挑战,并评估了用于改变潜在语音特征的不同图像到图像方法。我们的结果为向 TTS 系统添加表达能力控制的复杂性提供了有价值的见解,并为未来研究开拓了新的方向。
Nov, 2023
我们提出了一种简单高效的端到端扩散式文本转语音模型,通过扩散过程直接从纯文本生成音频波形。该模型无需中间表示,能够支持给定音频的灵活潜在结构,从而实现轻松适应零样本任务。实验证明,该模型能够生成高保真音频,接近最先进的神经网络语音合成系统的性能。
Nov, 2023
本文旨在探究扩散模型用于语音识别的潜在性,提出了以预训练的语音特征为条件的扩散模型 TransFusion,并通过 LibriSpeech 语音识别基准测试展示了与现有高性能反差模型可比的性能。同时,我们提出了有效采样和译码多项式扩散模型的新技术。
Oct, 2022