约束扩散模型的神经近似镜像地图
Mirror Diffusion Models 是一种新的扩散模型,能在凸约束集上生成数据而不损失可解性,并且通过学习镜像映射构造的对偶空间中的扩散过程,在应用于简单 xes 和∥2 - 球等流行约束集时,MDM 展现出显著改善的性能。此外,我们还探索了约束集作为一种新机制,将隐藏但定量信息(即水印)嵌入生成的数据中,以达到安全和隐私保护的目的。我们的工作为在复杂领域中学习可解扩散提供了新的算法机会。
Oct, 2023
通过镜像扩散模型 (Mirror Diffusion Models, MDMs) 向离散分类数据应用镜像 Langevin 算法,本文提出了对连续域进行解释的一种理论框架,并在图像和文本生成等领域进行了实证研究。
Aug, 2023
传播模型是生成任务中表现出色的模型,然而大部分传播模型仅允许对数据分布进行线性变换,相比之下,更广泛的转换可能有助于更高效地训练生成分布并消除真实负对数似然和变分近似之间的差距。在本文中,我们介绍了神经传播模型 (NDMs),这是传统传播模型的泛化,可以定义和学习数据的时间相关的非线性转换。我们展示了如何在无需模拟的情况下使用变分上界来优化 NDMs。此外,我们导出了 NDMs 的时间连续形式,可以使用现成的数值 ODE 和 SDE 求解器进行快速可靠的推断。最后,我们通过在标准图像生成基准测试上的实验,包括 CIFAR-10、ImageNet 的降采样版本和 CelebA-HQ,展示了可学习转换的 NDMs 的实用性。NDMs 在似然度和生成高质量样本方面优于传统传播模型。
Oct, 2023
本文研究了使用扩散模型生成图片以满足多种限制条件的问题。我们提出了一种基于去噪扩散概率模型的解决方案,该方法能够统一多个扩散模型,并引入一种新的可靠性参数,使得可以在采样时仅使用不同数据集上训练的现成模型来指导并满足多种限制条件的任务。该方法在多种标准的多模态任务上表现出了有效性。
Dec, 2022
通过在模型训练过程中加入约束条件使其生成的样本更符合所施加的约束,从而提高生成样本与约束的一致性,且相较于现有方法有更好的性能且不影响推断速度;该方法还可以自然地防止过拟合。
Mar, 2024
本研究提出两种方法来扩展扩散模型至通过不等式约束定义的流形,包括基于对数障碍度量的失真度量以及基于反射布朗运动的失真度量,在合成和真实任务中进行了实证表明,包括蛋白质骨架和机器人臂运动的约束构象模拟。
Apr, 2023
引入了 Matryoshka Diffusion Models(MDM),这是一种用于高分辨率图像和视频合成的端到端框架。通过在多个分辨率上联合去噪输入,使用嵌套 UNet 架构和从低到高分辨率的渐进式训练安排,实现了高分辨率生成的显著优化改进。在各种基准测试中展示了该方法的有效性,包括类别条件图像生成、高分辨率文本到图像以及文本到视频应用。在仅包含 1200 万张图像的 CC12M 数据集上,我们可以训练一个单一像素空间模型,分辨率达到 1024x1024 像素,并展现了强大的零样本泛化能力。
Oct, 2023
最近,去噪扩散概率模型展示了最先进的生成性能,并被用作强大的像素级表示学习器。本文将扩散模型内在的生成能力与表示学习能力之间的相互关系进行了分解。我们提出了掩蔽扩散模型 (MDM),这是一种可扩展的自监督表示学习器,用于将传统扩散中的加性高斯噪声替换为遮罩机制。我们所提出的方法在医学和自然图像语义分割任务中明显超越了先前的基准,并在少样本场景下展示了显著的进展。
Aug, 2023
本文介绍了一种更快的图像重建框架 LMD,通过潜在遮蔽扩散方法,将高分辨率图像投影和重建在潜在空间中,设计了渐进遮蔽扩散模型,通过三种不同的调度器逐渐提高遮蔽比例,以从简单到困难地重建潜在特征,从而加快模型训练速度,同时保持了原始准确性,并在下游任务中显著提高推理速度。
Dec, 2023
通过在预训练的自编码器的潜在空间中应用扩散模型,引入交叉注意力层到模型体系结构中,以更少的计算要求取得接近最优的性能,实现高分辨率合成,缩小像素级 DMs 对计算资源的需求。
Dec, 2021