语法树扩散在程序合成中的应用
通过研究和提出 Diffusion-based language models 的新方法,我们成功将 SSD-LM 模型从 0.4B 扩展至 13B 参数,同时提高了其训练和推断的效率,并能够根据指令进行微调,与自回归 LM 相比,Diffusion-based language models 在双向上下文方面的合作更加有效,从而提高了模型响应的质量和相关性。
May, 2023
本研究提出了一种基于连续扩散的非自回归语言模型 Diffusion-LM,在语言生成的过程中能够通过简单的基于梯度的算法实现复杂的可控生成任务,并成功地应用在六个难度较大的细粒度控制任务之中,表现出优秀的性能。
May, 2022
本研究介绍了一种基于文本的图像编辑方法,利用最新的扩散模型对一些基于文本主题的地方图像进行编辑,通过结合扩散模型的速度和 Blended Diffusion,提高了编辑的效率,并通过优化方法来解决扩散模型无法完美重建图像的问题,实现了比当前方法更高的精度和速度
Jun, 2022
通过结合两种离散语音表示形式并使用两个序列到序列任务解耦合 TTS,最近在对可以以最低限度的监督进行训练的 TTS 方法中产生了越来越大的兴趣。我们提出了 Diff-LM-Speech,它在扩散模型的基础上将语义嵌入建模为基于 mel-spectrogram,并引入了基于变分自动编码器和韵律瓶颈的提示编码结构,以提高提示表示能力。我们还提出了 Tetra-Diff-Speech,通过设计一个持续时间扩散模型来实现多样化的韵律表达。同时,我们提出了 Tri-Diff-Speech 来验证语义编码的必要性。实验结果表明,我们的方法优于基准方法。我们提供了一个包含音频样本的网站。
Jul, 2023
本论文介绍了 SSD-LM - 一种扩散语言模型,它是半自回归的,可以迭代地生成文本块,在不适用 GPT-2 后,它在标准的质量和多样性指标上与 strong autoregressive 基线匹配或优于其性能
Oct, 2022
本文提出了一种基于普通微分方程的线性扩散模型(LinDiff),其旨在实现快速推理和高采样质量,并通过基于补丁的处理方法来减少计算复杂性和实现嘈杂语音的有效全局建模,并使用对抗性训练进一步改善样本质量,并在 Mel - 声谱图上条件语音合成中进行测试,实验结果表明,即使只有一个扩散步骤,该模型也可以合成高质量的语音,而且在更快的合成速度下合成质量与自回归模型相媲美。
Jun, 2023
通过引入句法归纳偏差,使用依赖分析树驱动转换器模型迭代生成句子,实验证明其比 LSTM 和 Transformer 更有效,并具有可比拟的多样性且需要较少的解码步骤,生成过程允许对生成文本的句法构造进行直接控制,从而实现风格变形的归纳。
Apr, 2020
介绍了一种新的语言建模扩散模型 Masked-Diffuse LM,通过语言学特征和软掩蔽添加文本失真,通过交叉熵损失函数在每个扩散步骤中直接预测分类分布,以更高效和直接的方式连接连续空间和离散空间,优于目前最先进的扩散模型。
Apr, 2023
该研究论文讨论了扩散模型在离散领域(如语言)的应用,提出将扩散模型作为基于预训练语言模型的生成算法的辅助方法,并通过在预训练的编码器 - 解码器模型的潜在空间中学习连续的潜在扩散模型,演示了其在从数据分布中生成文本方面的有效性。最终提出的潜在扩散模型不仅在生成新颖文本方面优于强有力的自回归基线,还支持可控的生成。
Dec, 2022