反演数据匹配的二次 Wasserstein 度量
该研究提出了一种基于熵正则化、近似 Sinkhorn 缩放和高斯核矩阵低秩逼近的算法,用于计算两个点云或离散分布之间的二次输运度量(也称为 2-Wasserstein 距离或均方根距离),其复杂度为 O (n)。
Oct, 2018
我们提供了关于两个随机微分方程(SDEs)相关的两个概率分布的平方 Wasserstein-2($W_2$)距离的分析。基于这个分析,我们提出了使用基于平方 $W_2$ 距离的损失函数来从噪声数据中重构 SDEs。为了展示我们的 Wasserstein 距离损失函数的实用性,我们进行了数值实验,证明了我们的方法在重构出现在多个应用中的 SDEs 方面的效率。
Jan, 2024
论文阐述了位于 Wasserstein 空间的数据流形学习中的关于随机向量在 $\mathbb {R}^n$ 中的二次 Wasserstein 距离的一些已知下界,重点考虑应用于数据的仿射变换。具体而言,通过计算协方差矩阵之间的 Bures 度量,给出了关于在 $\mathbb {R}^2$ 中具有不相关分量的随机向量的旋转副本的具体下界。我们还推导了由仿射映射组成的上界,从而产生了多样的微分同胚,应用于初始数据度量。我们将这些界限应用于各种分布,包括位于 $\mathbb {R}^2$ 中的 1 维流形上的分布,并展示了界限的质量。最后,我们提出了一个可以应用于流形学习框架中的模仿手写数字或字母数据集的框架。
Oct, 2023
该研究探讨了几个度量数据分布与隐式模型分布差异的标准,发现这些度量在概率测度空间中引入了不同的几何特性,特别是当参数生成器具有非凸参数化时,$1$-Wasserstein 距离能够实现惊人的近似全局收敛保证。
Dec, 2017
提出了两种不平衡的 Gromov-Wasserstein 公式:一种是基于松弛质量守恒约束的正定差异,另一种是基于锥形提升的等距测距,它们都允许比较拥有正定度量的任意正度量的测度空间 (isometries)。
Sep, 2020
本文提出了一种局部平方 Wasserstein-2 方法,用于解决具有不确定潜变量或参数的模型的逆问题。我们的方法的一个关键优势是不需要关于潜变量或参数分布的先验信息,在基于经验分布的观测数据的基础上可有效重建与不同输入相关的输出的分布。我们通过几个不确定性量化任务展示了我们提出方法的有效性,包括具有系数不确定性的线性回归、具有权重不确定性的神经网络训练,以及含有潜随机变量的常微分方程重建。
Jun, 2024
此研究介绍了一种基于 Wasserstein 距离的方法,用于高维数问题中的 Gaussian 混合模型的优化问题,并讨论了它的性质和在图像处理中的应用。
Jul, 2019
使用 Wasserstein 距离对分布进行差分私密密度估计,并设计了可以适应简单实例的实例最优算法,对于特殊情况下的离散分布,结果还导致了 TV 距离下的实例最优私密学习。
Jun, 2024
本文研究 Wasserstein 距离的问题,得出了关于概率测度的收敛速度的渐近结果和有限样本结果。结果表明,随着样本量 $n$ 的增加,测度可以呈现出不同的收敛速度。
Jul, 2017