离散图扩散中不同收敛先验的复杂偏好
该论文探讨了在先验概率和一个基于 $x$ 和 $y$ 的不等式约束条件下利用高维数据推断潜在结果。通过使用一个独立训练的去噪扩散生成模型和不同的不等式约束,该方法能应用于各种不同领域的任务,例如条件生成、图像分割以及求解组合优化问题等。
Jun, 2022
这篇论文介绍了创造性文本到图像生成的任务,并使用未经研究的扩散先验模型来解决此问题,同时通过一个问题回答模型来逐渐发现越来越独特的创作,最后展示了先验约束不仅作为强大的混合机制,还能引入更多的灵活性。
Aug, 2023
本文提出了将基于分数的扩散模型转化为原则性先验(`` 基于分数的先验 ')来分析给定测量的后验图像的方法。实验结果表明,基于分数的先验使得数据驱动图像先验的归纳推理变得更加精细。
Apr, 2023
去噪扩散模型是一种将噪声转换为数据的强大生成技术,本论文研究了离散时间扩散模型在更大范围的分布上的收敛性保证,并提出了一种加速采样器来提高收敛速度和维度依赖性。
Feb, 2024
我们提出了一个统一框架,旨在增强三维生成任务的扩散先验。通过优化三维模型和扩散先验,我们的方法在性能和实施复杂性之间提供了多种配置,并在文本到三维生成领域取得了显著成果,成为新的技术先驱。
Dec, 2023
本文提出了 PriorGrad,通过基于条件信息的数据统计推导出自适应先验来提高条件扩散模型的效率,改进语音合成中基于谱和时间域的扩散生成模型,通过理论分析和实验验证,提高了效率和稳健性。
Jun, 2021
通过引入辅助优化变量,利用扩散过程重新定义嘈杂的反问题为受约束的双变量优化任务,该算法称为 ProjDiff,有效地利用了预训练扩散模型的先验信息和降噪能力。在各种线性和非线性反问题中,ProjDiff 在图像恢复任务、信源分离和部分生成任务方面展现出卓越的性能,凸显其在实际应用中的潜力。
Jun, 2024
通过在模型训练过程中加入约束条件使其生成的样本更符合所施加的约束,从而提高生成样本与约束的一致性,且相较于现有方法有更好的性能且不影响推断速度;该方法还可以自然地防止过拟合。
Mar, 2024
我们在这篇论文中,对扩散模型和数据生成分布之间的 Wasserstein 距离进行了定量上界的推导,该结果不依赖于数据生成分布的得分函数,并且适用于具有有界实例空间的任意数据生成分布,即使这些分布对勒贝格测度没有密度,而且上界不会受到指数依赖的影响。
Dec, 2023