本文提倡使用基于密度的分布嵌入方法,并提出了一种在高斯分布空间中学习表示的方法,以更好地捕捉有关表示和其关系的不确定性,自然地表达不对称性,并使决策边界参数更有表达力。本文比较了各种单词嵌入基准测试的性能,调查了这些嵌入模型主导和其他不对称关系的能力,并探索了表示的新颖特性。
Dec, 2014
本文介绍一种利用同配网络和解码器实现对 Wasserstein 距离进行逼近的方法,该方法可用于快速处理优化问题,如重心、主要方向或原型,在图像数据集上已经进行了实验。
Oct, 2017
本文研究了一种称为 Wasserstein space 的新型嵌入方法,它在嵌入数据时不受限于欧几里得空间假设,可以更好地捕捉数据的潜在语义结构,同时对于更广泛的度量结构也具有更大的灵活性,并演示了其在词嵌入方面的应用。
May, 2019
提出了一种基于 Wasserstein 方法和蒸馏机制的新方法,实现了词嵌入和主题的联合学习,其中重点应用于病人入院记录,通过疾病编码和手术编码学习入院主题,从而在临床意义上的疾病网络构建、死亡预测和手术推荐方面获得了卓越的性能。
Sep, 2018
本文借助预训练词向量系统使用连续空间中的 Wasserstein 距离,考察了 Wasserstein 距离测量本体相似度以发现和优化对齐的匹配效果。我们在 OAEI 会议和 MSE 基准测试中进行的实验获得了与领先系统相当的竞争结果。
Jul, 2022
在机器学习中嵌入复杂对象是一个长期存在的问题。我们在这项工作中提出了一种方法,将对象作为椭圆概率分布嵌入。我们使用 2-Wasserstein 度量进行测量,并将它们用于词的嵌入和可视化。
May, 2018
本文介绍了一种基于能量的最大化边际目标的多模态词分布方法,用于学习包含语义信息、包含多个词含义、蕴含和丰富的不确定性信息的词嵌入。实验结果表明,该方法在诸如单词相似度和蕴含等基准数据集上优于 Word2vec 跳字模型和高斯嵌入。
Apr, 2017
本文提出使用 von Mises-Fisher 分布来建模单元球上的单词密度,以构建主题模型,并基于随机变分推理提出了一种高效的推断算法,实现了自然利用词嵌入的语义结构,同时能够灵活地发现主题数量。该方法在两个不同的文本语料库中拥有更好的主题连贯性并提供有效推理。
Apr, 2016
此研究介绍了一种基于 Wasserstein 距离的方法,用于高维数问题中的 Gaussian 混合模型的优化问题,并讨论了它的性质和在图像处理中的应用。
Jul, 2019
本文提出了一个基于 Wasserstein 距离的多标签学习损失函数,基于概率度量体提供了一种自然的概念。该算法可以有效鼓励模型在输出空间中使用所选度量的平滑性,并用 Yahoo Flickr Creative Commons 数据集上的标签预测问题验证了性能。
Jun, 2015