Wasserstein梯度流的近似推断
本文介绍了基于Wasserstein变分推断的一种新的近似贝叶斯推断方法,该方法使用了包括f-分布和Wasserstein距离在内的一种新的差异度量方式,通过Sinkhorn迭代,该技术可以获得非常稳定的无似然训练方法,并且可以用于隐式分布和概率编程,同时应用于多种自编码器实验中,对其鲁棒性和性能进行了测试。
May, 2018
本研究提出了一种基于梯度流的、无需参数的算法,用于学习复杂数据集的潜在分布和从中进行抽样。该算法是建立在隐式生成建模 (IGM) 与最优输运之间的联系理论基础上,并通过泛函优化问题的方式得以实现。通过梯度流和随机微分方程的联系,该算法既能高效地解决优化问题,还提供了理论分析和有限时间误差保证。实验结果表明,该算法能够成功地捕捉不同类型的数据分布结构。
Jun, 2018
该论文介绍了一种称为广义Wasserstein梯度下降(GWG)的粒子变分推断方法框架,基于KL散度的广义Wasserstein梯度流,可视为具有更广泛正则化器类的函数梯度方法,展示了GWG具有强大的收敛性保证,通过实验证明了该框架在模拟和真实数据问题上的有效性和高效性。
Oct, 2023
本文介绍了变分推断和Wasserstein梯度流之间的联系,通过将Bures-Wasserstein梯度流转化为欧几里德梯度流,并使用路径导数梯度估计器生成梯度场,同时提供了一种新的梯度估计方法适用于$f$-divergences的拓展。
Oct, 2023
使用概率流常微分方程进行基于得分的生成建模已经在各种应用领域取得了显著的成功。本文首次提供了关于概率流常微分方程采样器的非渐近收敛性分析,假定得分估计准确,并在2-Wasserstein距离下建立了一系列ODE采样器的迭代复杂性结果。
Jan, 2024
通过分析两个多维跳扩散过程的概率分布之间的Wasserstein距离(W-距离),我们提出了一种时间解耦的平方W_2-距离方法,该方法提供了与两个跳扩散过程的漂移、扩散和跳跃幅度函数之间的差异相关的上下界。然后,我们利用参数化神经网络从数据中高效重建未知的跳扩散过程,并展示了通过利用跳扩散过程的漂移函数的先验信息可以提高其性能。我们还通过几个示例和应用程序演示了我们提出的重建方法的有效性。
Jun, 2024
通过两个反例,我们研究了前向欧拉离散化方法在模拟Wasserstein梯度流方面的失败,即使对于能量函数定义为相对于一些结构完整的概率密度的KL散度的简单情况也是如此。我们还讨论了这种失败的简单解释。
Jun, 2024
本研究针对现有扩散模型收敛理论中严格假设和次优收敛速度的问题,提出了一种新的快速收敛理论。通过确保$\ell_{2}$-准确的评分函数估计,该理论表明目标分布与生成分布之间的总变差距离上界为$O(d/T)$,对任何具有有限一阶矩的目标分布均适用,显著改进了现有的SDE和ODE模型收敛理论。
Sep, 2024
本文解决了包容性KL推断的数学分析工具缺乏的问题,提出了一种基于偏微分方程分析的通用近似包容性KL推断范式。通过此视角,多个已有的学习算法可以被统一视为包容性KL推断的特例,最重要的发现是为包容性KL散度的最小化提供了Wasserstein-Fisher-Rao梯度流的理论基础。
Oct, 2024