该论文研究了扩散模型在音频生成方面的应用,提出了多种模型来满足音频生成的多方面需求,并通过简化工具库加速实时推理。
Jan, 2023
我们展示了如何从扩散模型中进行条件生成,以解决音乐制作中的各种现实任务,包括音乐音频的延续、修复和再生,不同音乐轨道之间的平滑过渡以及将样式特征传递给现有音频片段。
Nov, 2023
本文介绍了 DiffWave,这是一种用于条件和非条件波形生成的多功能扩散概率模型。该模型高效地通过 Markov 链将白噪声信号转化为结构化波形,并通过特定的数据似然变分界限进行优化训练。DiffWave 在各种波形生成任务中均能生成高保真度音频,并在音频质量方面显著优于其他自回归和 GAN-based 波形模型。
Sep, 2020
本文介绍了利用神经合成器实时生成任意乐器和音符组合的音频,其具有互动性和表现力,使用 MIDI 序列进行训练,采用两阶段过程转换为声谱图,然后通过生成对抗网络(GAN)声谱图反演器将其转化为音频,发现 DDPM 方法在质量和重建等方面具有显著的优势。
Jun, 2022
应用一种新的深度学习方法来生成原始音频文件,并使用 1D U-Net 的渐进蒸馏扩散模型实现无条件音乐生成,并比较不同扩散参数的价值和实现。
Jul, 2023
基于扩散模型的音频修复算法在语音增强和音乐修复任务中表现出色,既具有可解释性又具有出色的音质性能。
Feb, 2024
通过在扩散模型中引入两个辨别器(扩散辨别器和频谱图辨别器),我们提出了一种音频合成模型,其在各项评估指标中均优于 FastSpeech2 和 DiffGAN-TTS,并通过结构相似性指数、梅尔倒谱失真、F0 均方根误差、短时客观可懂性、语音质量感知评估和主观平均意见得分等客观和主观度量对该模型进行了评估。
Aug, 2023
本文提出了一种基于预训练变分自编码器的离散领域参数化的扩散模型训练技术,用于离散和连续领域的生成导致更优结果,并在应用于符号音乐领域时表现出很强的无条件生成和条件填充结果,相比基于自回归语言模型的连续嵌入操作更具可行性。
Mar, 2021
我们提出了一种基于扩散模型的最小监督高保真语音合成方法,其中所有模块均基于扩散模型构建,非自回归框架增强了可控性,持续时间扩散模型实现了多样化的韵律表达。
Sep, 2023
本研究提出了一种基于非自回归解码器、矢量量化变分自编码器、谱图及声码器的文本到声音生成框架,在声音生成效果和速度方面较传统的自回归解码器都有较大的提升。
Jul, 2022