镜像扩散模型
Mirror Diffusion Models 是一种新的扩散模型,能在凸约束集上生成数据而不损失可解性,并且通过学习镜像映射构造的对偶空间中的扩散过程,在应用于简单 xes 和∥2 - 球等流行约束集时,MDM 展现出显著改善的性能。此外,我们还探索了约束集作为一种新机制,将隐藏但定量信息(即水印)嵌入生成的数据中,以达到安全和隐私保护的目的。我们的工作为在复杂领域中学习可解扩散提供了新的算法机会。
Oct, 2023
本研究重新考虑扩散模型的总体框架,将其视为具有未观察到扩散轨迹的潜在变量模型,并应用于数据不受限制的领域。利用最大似然估计,我们表明模型构建和潜在路径的插补都可以构造扩散桥过程,实现端点的确定值和约束条件,并提供一套系统的研究和工具,进而提出了学习扩散生成模型的第一个理论误差分析和学习不同离散和受限领域数据的简单而统一的方法。实验证明,我们的方法在生成图像、语义分段和 3D 点云方面表现出色。
Aug, 2022
本研究提出两种方法来扩展扩散模型至通过不等式约束定义的流形,包括基于对数障碍度量的失真度量以及基于反射布朗运动的失真度量,在合成和真实任务中进行了实证表明,包括蛋白质骨架和机器人臂运动的约束构象模拟。
Apr, 2023
介绍了一种新的语言建模扩散模型 Masked-Diffuse LM,通过语言学特征和软掩蔽添加文本失真,通过交叉熵损失函数在每个扩散步骤中直接预测分类分布,以更高效和直接的方式连接连续空间和离散空间,优于目前最先进的扩散模型。
Apr, 2023
最近,去噪扩散概率模型展示了最先进的生成性能,并被用作强大的像素级表示学习器。本文将扩散模型内在的生成能力与表示学习能力之间的相互关系进行了分解。我们提出了掩蔽扩散模型 (MDM),这是一种可扩展的自监督表示学习器,用于将传统扩散中的加性高斯噪声替换为遮罩机制。我们所提出的方法在医学和自然图像语义分割任务中明显超越了先前的基准,并在少样本场景下展示了显著的进展。
Aug, 2023
该研究论文讨论了扩散模型在离散领域(如语言)的应用,提出将扩散模型作为基于预训练语言模型的生成算法的辅助方法,并通过在预训练的编码器 - 解码器模型的潜在空间中学习连续的潜在扩散模型,演示了其在从数据分布中生成文本方面的有效性。最终提出的潜在扩散模型不仅在生成新颖文本方面优于强有力的自回归基线,还支持可控的生成。
Dec, 2022
传播模型是生成任务中表现出色的模型,然而大部分传播模型仅允许对数据分布进行线性变换,相比之下,更广泛的转换可能有助于更高效地训练生成分布并消除真实负对数似然和变分近似之间的差距。在本文中,我们介绍了神经传播模型 (NDMs),这是传统传播模型的泛化,可以定义和学习数据的时间相关的非线性转换。我们展示了如何在无需模拟的情况下使用变分上界来优化 NDMs。此外,我们导出了 NDMs 的时间连续形式,可以使用现成的数值 ODE 和 SDE 求解器进行快速可靠的推断。最后,我们通过在标准图像生成基准测试上的实验,包括 CIFAR-10、ImageNet 的降采样版本和 CelebA-HQ,展示了可学习转换的 NDMs 的实用性。NDMs 在似然度和生成高质量样本方面优于传统传播模型。
Oct, 2023