探究跨概念嵌入的 Wasserstein 距离用于本体匹配
本文介绍一种利用同配网络和解码器实现对 Wasserstein 距离进行逼近的方法,该方法可用于快速处理优化问题,如重心、主要方向或原型,在图像数据集上已经进行了实验。
Oct, 2017
本文研究了一种称为 Wasserstein space 的新型嵌入方法,它在嵌入数据时不受限于欧几里得空间假设,可以更好地捕捉数据的潜在语义结构,同时对于更广泛的度量结构也具有更大的灵活性,并演示了其在词嵌入方面的应用。
May, 2019
该研究提出了一种使用 Wasserstein 距离作为损失函数的高效高斯词嵌入模型,并利用 ConceptNet 进行半监督学习,以获得更丰富的语义信息和更好的性能。
Aug, 2018
本文将跨语言对应问题直接建模为最优传输问题,通过利用测度恢复算法所产生的词嵌入,使用 Gromov-Wasserstein 距离测量不同语言中单词对的相似度,并证明了该模型在无监督翻译任务中表现良好,效果与当前最先进技术相当。
Aug, 2018
提出了一种基于 Wasserstein 方法和蒸馏机制的新方法,实现了词嵌入和主题的联合学习,其中重点应用于病人入院记录,通过疾病编码和手术编码学习入院主题,从而在临床意义上的疾病网络构建、死亡预测和手术推荐方面获得了卓越的性能。
Sep, 2018
通过将经验分布嵌入到潜在空间中,使欧式距离近似于最优输运距离,Wasserstein Wormhole 提供了一种可扩展且可解释的方法,用于计算最优输运距离,并在计算几何学和单细胞生物学领域的数据分析中开辟了新的研究方向。
Apr, 2024
此研究介绍了一种基于 Wasserstein 距离的方法,用于高维数问题中的 Gaussian 混合模型的优化问题,并讨论了它的性质和在图像处理中的应用。
Jul, 2019
通过随机目标函数的线性规划问题,实现有限点概率分布的经验 Wasserstein 距离的渐近分布,以方便进行统计推断(例如,基于样本的 Wasserstein 距离的置信区间);该结果基于定向 Hadarmard 可微性,证明了经典引导法及其替代方法的失败。同时,该分布特性在两个数据集上得到了证明其实用性的验证。
Oct, 2016
在机器学习中嵌入复杂对象是一个长期存在的问题。我们在这项工作中提出了一种方法,将对象作为椭圆概率分布嵌入。我们使用 2-Wasserstein 度量进行测量,并将它们用于词的嵌入和可视化。
May, 2018