广义瓦瑟斯坦距离及其在带源输运方程中的应用
此研究介绍了一种基于 Wasserstein 距离的方法,用于高维数问题中的 Gaussian 混合模型的优化问题,并讨论了它的性质和在图像处理中的应用。
Jul, 2019
本文对最优传输距离的使用进行了探索,指出在大规模数据集上计算这些距离的方法是通过平均几个较小的最优传输问题的结果。我们论证了这种方法等效于原问题的隐式正则化,并具有无偏估计,梯度和期望值周围的集中度约束等吸引人的属性。同时我们还开展了梯度流、GAN 或颜色转换等经验实验,以突出这种策略的实际价值。
Oct, 2019
本文提出一种泛化近期针对有限维欧几里得空间和有界函数空间的结果的,衡量概率测度和其经验版本之间期望 Wasserstein 距离的上界方法,并将其推广到具有大维度的欧几里得空间及分离的 Hilbert 空间中的 Gaussian process。此外,结合均值集中结果,给出了 Bernstein 型或 log Sobolev 型条件下,经验测度的 Wasserstein 误差的改进指数尾部概率界。
Apr, 2018
本文针对高维离散量之间的 Wasserstein 距离提出了具有鲁棒性的 “Max-Min” 方案,通过将量投影到一个较低维的子空间来最大化它们之间的距离。此外,我们提出了一种基于熵正则化的算法来解决相关问题,并在实验中显示了其优越性。
Jan, 2019
本文通过运用 Wasserstein 度量讨论混合模型中潜在混合度量的收敛性,研究 Wasserstein 距离与 Hellinger 和 Kullback-Leibler 度量之间的关系,并建立了离散度量的收敛率与概率混合分布的收敛率之间的联系,从而说明聚类中集群的收敛性和后验混合度量的收敛率。
Sep, 2011
提出了一种新的基于最优输运的距离度量方法,称为增强型 Gromov-Wasserstein,在保持对几何变换的某种程度刚度的同时,结合特征对齐,以更好地利用输入数据的先验知识,用于单细胞多组学对齐任务和机器学习中的迁移学习场景。
Jul, 2023
该研究论文介绍了两种 Gromov-Wasserstein 类型的距离,用于高斯混合模型集合。这些距离可作为 Gromov-Wasserstein 的替代品,用于评估两个分布间的差异,并且为点云之间的最优传输计划提供了一种定义方式。同时,该研究还提供了实际应用案例,如形状匹配和高光谱图像颜色转换。
Oct, 2023
该研究使用算法传输成本的期望 Wasserstein 距离得到了学习算法泛化误差的上界,为通过最优传输视图研究学习算法的泛化提供了新途径并对损失函数施加了较少的限制,并通过总变差距离、相对熵和 VC 维度提供了几个其他的算法传输成本的上界,最后基于我们的建立的框架,我们分析了深度学习中的泛化误差并得出了结论:深度神经网络中的泛化误差随着层数的增加而指数级下降。
Nov, 2018
本文研究 Wasserstein 距离的问题,得出了关于概率测度的收敛速度的渐近结果和有限样本结果。结果表明,随着样本量 $n$ 的增加,测度可以呈现出不同的收敛速度。
Jul, 2017