通过提出一种新颖的去随机扩散过程,我们加速了离散扩散模型的算法;我们还引入了一种连续时间采样算法,能够比有限步长的离散时间采样算法提供更好的样本质量。大量实验表明,在自然语言生成和机器翻译任务中,我们的方法在离散扩散模型的生成速度和样本质量方面表现出优越性。
Dec, 2023
通过引入结构化的前向过程,改进离散扩散模型,提高对离散数据类型的生成性能。
May, 2024
本文系统介绍了最新的扩散模型在 NAR(非自回归)文本生成领域中的进展,重点介绍了扩散模型的核心设计、预训练语言模型的应用,以及优化技术等。该综述旨在为研究人员提供一个有关文本扩散模型的系统参考。
Mar, 2023
本文概述和推导了扩散模型的基本理论,回顾了扩散模型在自然语言处理领域的研究结果,并对齐进行了分析和总结,最后记录了本次文献综述研究的经验和感受。
该研究论文讨论了扩散模型在离散领域(如语言)的应用,提出将扩散模型作为基于预训练语言模型的生成算法的辅助方法,并通过在预训练的编码器 - 解码器模型的潜在空间中学习连续的潜在扩散模型,演示了其在从数据分布中生成文本方面的有效性。最终提出的潜在扩散模型不仅在生成新颖文本方面优于强有力的自回归基线,还支持可控的生成。
Dec, 2022
本研究介绍了扩散模型在文本生成任务中的应用,并提出了两种桥接训练和推理之间差异的方法,分别为 “距离惩罚” 和 “自适应衰减采样”,实验证明这两种方法能够在保证性能的情况下加速 100 倍至 200 倍。
May, 2023
通过分析文本扩散模型的限制,本文提出了一种名为 TREC 的新型文本扩散模型,通过强化条件和时间感知方差缩放来减轻语言离散性问题,在与自回归、非自回归和扩散基线的对比实验中展示了 TREC 的竞争力,并通过定性分析显示其在优化样本中充分利用扩散过程的先进能力。
Feb, 2024
介绍了一种新的生成文本的方法 - 自回归扩散 (AR-Diffusion),它通过引入动态去噪步骤来解决自然语言中的顺序依赖问题,在各种文本生成任务中表现优异。
本研究提出了自条件嵌入扩散 (Self-conditioned Embedding Diffusion),这是一种在令牌嵌入上运行的连续扩散机制,可以学习灵活和可扩展的扩散模型,用于条件和非条件文本生成。通过定性和定量评估,我们表明,我们的文本扩散模型生成的样本与标准自回归语言模型生成的样本相当,而在推断时间上在加速器硬件上更为高效。该研究为在文本方面扩大扩散模型的规模,类似于自回归模型,并通过对连续扩散的最新改进来提高性能铺平了道路。
Nov, 2022
DiffusER 是一种基于编辑的生成模型,它能利用去噪扩散模型生成数据,并允许用户在原型或不完整序列上进行连续的修订,超越自回归模型在机器翻译、摘要、风格转换等任务上表现出色。
Oct, 2022