使用树来近似计算 1-Wasserstein 距离
本研究利用树结构上的一维瓦砾均值(Tree-Wasserstein distance,TWD)解决了简化表示学习的问题,其中 TWD 定义为两个树嵌入向量之间的 L1 距离。具体来说,我们考虑了一种基于 SimCLR 的自监督学习方法框架,其中负 TWD 被用作相似性度量。通过实验证明了 TWD 和简化模型的组合优于基于余弦相似度的表示学习。
Oct, 2023
本文首次阐明了 Weisfeiler-Lehman 测试仅考虑了图一致性因而弱化了结构信息描述能力的事实,并定义了一种叫做 Wasserstein WL subtree (WWLS) 距离的度量。通过引入 WL 子树作为节点附近的结构信息并将其指定给每个节点,我们定义了一种新的基于 L_1 近似树编辑距离(L_1-TED)的图嵌入空间,并且使用 Wasserstein 距离来反映将 L_1-TED 度量到图级别的变化。我们在多个图分类和度量验证实验中展示了 WWLS 的性能。
Jul, 2022
本文介绍一种利用同配网络和解码器实现对 Wasserstein 距离进行逼近的方法,该方法可用于快速处理优化问题,如重心、主要方向或原型,在图像数据集上已经进行了实验。
Oct, 2017
本文提出了一种名为 TSW-SL(Tree-Sliced Wasserstein distance on a System of Lines)的方法,通过应用变体 Radon Transform 将测度投影到具有树度量的空间,然后利用 TW 有效地计算它们之间的距离,与传统 SW 相比,TSW-SL 具有更高的自由度并适用于动态环境。在梯度流、图像风格转换和生成模型等多个实验中,我们经验证明了 TSW-SL 相对于传统 SW 的优势。
Jun, 2024
本文提出了一个基于 Wasserstein 距离的多标签学习损失函数,基于概率度量体提供了一种自然的概念。该算法可以有效鼓励模型在输出空间中使用所选度量的平滑性,并用 Yahoo Flickr Creative Commons 数据集上的标签预测问题验证了性能。
Jun, 2015
本文针对最优输送(Optimal transport)理论的计算和统计问题,提出了一种新的基于树度量的方法:树切片 Wasserstein 距离。通过使用随机树评估度量,该方法可以在低或高维空间中自适应地计算 Wasserstein 距离的平均值,并通过正定核与其他基线进行比较。
Feb, 2019
该研究提出了一种使用 Wasserstein 距离作为损失函数的高效高斯词嵌入模型,并利用 ConceptNet 进行半监督学习,以获得更丰富的语义信息和更好的性能。
Aug, 2018
使用 Wasserstein 距离对分布进行差分私密密度估计,并设计了可以适应简单实例的实例最优算法,对于特殊情况下的离散分布,结果还导致了 TV 距离下的实例最优私密学习。
Jun, 2024
该研究提出了一种基于熵正则化、近似 Sinkhorn 缩放和高斯核矩阵低秩逼近的算法,用于计算两个点云或离散分布之间的二次输运度量(也称为 2-Wasserstein 距离或均方根距离),其复杂度为 O (n)。
Oct, 2018