图的 Bures-Wasserstein 平均值
本文介绍了一种基于 Wasserstein 距离和 Weisfeiler-Lehman embedding 的新型图卷积核方法,以图像高维对象的方式比较图结构之间的相似性并在多个图分类任务上提高了预测性能。
Jun, 2019
本文提出两种算法来计算一组经验概率测度的 Wasserstein barycenters,其中包括使用 entropic 正则化来平滑 Wasserstein distance 的方法,并使用矩阵缩放算法计算其梯度,这些算法可用于可视化大量图像并解决约束聚类问题。
Oct, 2013
本文介绍一种利用同配网络和解码器实现对 Wasserstein 距离进行逼近的方法,该方法可用于快速处理优化问题,如重心、主要方向或原型,在图像数据集上已经进行了实验。
Oct, 2017
本文提出一种新的方法来解决多层次聚类问题,该方法旨在同时将数据在每个组中分区,并在潜在的大型分层结构数据集中发现组间的分组模式。我们的方法涉及到多个离散概率测度空间上的联合优化方案,这些测度空间具有 Wasserstein 距离度量。通过利用与 Wasserstein barycenter 问题的联系,我们提出了该问题的许多变体,这些变体可以采用快速的优化算法。本文还建立了局部和全局聚类估计的一致性性质。最后,使用合成和真实数据展示了所提出方法的灵活性和可扩展性。
Jun, 2017
本研究提出了针对图学习的 Wasserstein Embedding 方法,并应用不同的机器学习模型来进行图预测任务,利用节点嵌入分布的相似度来定义图之间的相似性,并用 Wasserstein 距离度量两者之间的差异,不同于现有方法,避免了两两计算不同的图之间的距离,将计算复杂度从二次线性降至一次线性,并证明了该方法在各项基准图属性预测任务中具有优秀的分类表现及计算效率。
Jun, 2020
对于机器学习中的许多应用而言,图的成对比较是关键,涉及到聚类、基于核的分类 / 回归和最近监督图预测等。图之间的距离通常依赖于这些结构化对象的有效表示,例如子结构的集合或其他图嵌入。本研究引入了一种用于比较具有节点和边特征的图的 Gromov-Wasserstein 距离的扩展,提出了距离和重心计算的新算法,并在分类和图预测等图出现在输入空间或输出空间时的学习任务中经验证明了新距离的有效性。
Sep, 2023
本文研究了一种称为 Wasserstein space 的新型嵌入方法,它在嵌入数据时不受限于欧几里得空间假设,可以更好地捕捉数据的潜在语义结构,同时对于更广泛的度量结构也具有更大的灵活性,并演示了其在词嵌入方面的应用。
May, 2019
本文提出使用 Wasserstein barycenter 对模型进行集成,以在多类或多标签学习设置中提高模型性能,并应用于基于属性的分类、多标签学习和图像标题生成任务,结果表明 Wasserstein 集成是一种可行的替代方法。
Feb, 2019
我们研究了网络回归问题,通过基于弗雷歇平均和使用 Wasserstein 度量的广义回归模型,提出了一种网络回归方法。通过将图形表示为多变量高斯分布,我们展示了网络回归问题需要计算一个 Riemannian 中心(即 Frechet 平均)。通过固定点迭代可以有效计算具有非负权重的 Frechet 平均,该方法在合成和实际数据情景中的大量数值结果表明改进了现有程序,准确考虑了图形的大小、拓扑和稀疏性。此外,使用该方法的实际实验结果也显示出更高的决定系数($R^{2}$)值和更低的均方预测误差(MSPE),从而巩固了在实践中改进的预测能力。
Jun, 2024
该论文提出一种基于 Gromov-Wasserstein 方法的图对齐及嵌入学习框架,通过学习最优传输距离完成图的对齐,以及标记距离来引导嵌入向量的学习,并通过结构正则化减小 Gromov-Wasserstein 距离,使用近端点法求解这个优化问题。该方法在现实网络中的匹配问题上具有卓越的性能表现。
Jan, 2019