Nov, 2023
基于扩散的生成模型及其误差界:全收敛估计下的对数凹情况
On diffusion-based generative models and their error bounds: The
log-concave case with full convergence estimates
TL;DR我们以具有未知均值的高斯分布的抽样为动机示例,通过扩散生成模型提供了在强对数凹数据分布假设下的收敛性行为的全面理论保证。我们的评估函数类使用的逼近是利普希茨连续函数,同时通过与相应的抽样估计相结合,对于与数据分布之间的Wasserstein-2距离等关键量感兴趣的最佳上界估计提供了显式估计。该论文还引入了基于L2准确评分估计假设的结果,以适用于各种随机优化器。该方法在我们的抽样算法上得到了已知的最佳收敛速度。