Langevin Monte Carlo 和 JKO splitting
该研究提出了一种新的算法 SPLA 用于从对数凸分布中采样,该算法是 Langevin 算法的推广,能够实现平滑项和非平滑项的随机操作,并在光滑项凸性和强凸性下建立非渐近次线性和线性收敛率,从而提高了贝叶斯学习任务的效率。
May, 2019
本文研究了基于分 discretizing 类 - Wasserstein 倍数收缩的平滑随机微分取样算法,着重研究了用随机 Runge-Kutta 方法离散过度阻尼 Langevin 方程的取样算法,并表明其迭代次数可达到目标分布的 $2$-Wasserstein 距离,并将分析扩展到具有可能非凸势能的一般扩散过程。
Jun, 2019
基于随机化的 Nesterov 方案,我们开发了一类新颖的 MCMC 算法。我们通过适当地添加噪声,得到了一种时间非齐次的欠阻尼 Langevin 方程,并证明它的不变测度是一个指定的目标分布。同时,我们还建立了它在 Wasserstein-2 距离下的收敛速率。我们还提供了调整的 Metropolis 和随机梯度版本的所提出的 Langevin 动力学。实验演示显示出所提出的方法在统计学和图像处理中不同模型上优于典型的 Langevin 抽样器,包括更好的 Markov 链混合性能。
Nov, 2023
使用 Langevin 扩散过程进行离散化的蒙特卡洛算法可用于对光滑且强对数凹密度进行采样,本文主要研究了这个框架,并证明了基于 kinetic Langevin 扩散的 Monte Carlo 算法的混合性质和采样质量,进一步证明了 Hessian 矩阵 Lipschitz 连续的情况下,使用新的离散化方法可以显著提高采样误差的上界。
Jul, 2018
该研究实现了对于凸函数空间的 Jenkins-Sturges-Synder 方案的可靠离散化,为非线性扩散问题和人流运动建模提供了有效的数值模拟结果。
Aug, 2014
本文针对具有强烈对数凹密度的平滑目标分布的采样问题进行探究,借助随机中点离散化方法,建立可计算的 Wasserstein-2 误差的上界,并基于中点离散化的 Langevin 扩散过程进行分析以明确其基本原理和提供有价值的见解,进而建立起更改进的上界以改进 Euler 离散化的 Langevin 扩散过程。
Jun, 2023
本文提出一种应用于概率分布空间优化问题中的变分形式的 Wasserstein 梯度流方法,该方法利用了内部批量样本更新,实现了良好定义和有意义的目标函数下的梯度流构造,并在合成和真实高维数据集的实验中展示了其性能和可扩展性。
Dec, 2021
该论文提出了新的调整 Langevin 算法的洞见,并表明该方法可以被公式化为定义在阶为 2 的 Wasserstein 空间上的目标函数的一阶优化算法。
Feb, 2018
通过使用渐进流模型 JKO 流模型,在生成数据方面提供了理论保证,证明了其数据生成能力的 KL 保证在一些条件下的收敛速度为 O (ε^2)。
Oct, 2023