学习 Wasserstein 嵌入
本文研究了一种称为 Wasserstein space 的新型嵌入方法,它在嵌入数据时不受限于欧几里得空间假设,可以更好地捕捉数据的潜在语义结构,同时对于更广泛的度量结构也具有更大的灵活性,并演示了其在词嵌入方面的应用。
May, 2019
该研究提出了一种使用 Wasserstein 距离作为损失函数的高效高斯词嵌入模型,并利用 ConceptNet 进行半监督学习,以获得更丰富的语义信息和更好的性能。
Aug, 2018
本文借助预训练词向量系统使用连续空间中的 Wasserstein 距离,考察了 Wasserstein 距离测量本体相似度以发现和优化对齐的匹配效果。我们在 OAEI 会议和 MSE 基准测试中进行的实验获得了与领先系统相当的竞争结果。
Jul, 2022
提出了一种基于 Wasserstein 方法和蒸馏机制的新方法,实现了词嵌入和主题的联合学习,其中重点应用于病人入院记录,通过疾病编码和手术编码学习入院主题,从而在临床意义上的疾病网络构建、死亡预测和手术推荐方面获得了卓越的性能。
Sep, 2018
在机器学习中嵌入复杂对象是一个长期存在的问题。我们在这项工作中提出了一种方法,将对象作为椭圆概率分布嵌入。我们使用 2-Wasserstein 度量进行测量,并将它们用于词的嵌入和可视化。
May, 2018
本篇论文介绍了一种基于树状嵌入的 Wasserstein 距离的计算方式,通过 L1 正则化方法来学习树的边缘权重,并通过 Lasso-based 回归问题实现最短路径距离的表示,从而近似计算 1-Wasserstein 距离。通过实验结果,证明了这种方法可以准确地近似 1-Wasserstein 距离。
Jun, 2022
本文提出了一个基于 Wasserstein 距离的多标签学习损失函数,基于概率度量体提供了一种自然的概念。该算法可以有效鼓励模型在输出空间中使用所选度量的平滑性,并用 Yahoo Flickr Creative Commons 数据集上的标签预测问题验证了性能。
Jun, 2015
在这项研究中,我们探讨了在概率空间上定义的 Sobolev 平滑函数的数值逼近的挑战性问题。我们采用三种基于机器学习的方法,通过求解有限个最优传输问题和计算相应的 Wasserstein 潜势,使用 Wasserstein Sobolev 空间中的经验风险最小化和 Tikhonov 正则化,以及通过表征 Tikhonov 泛函的 Euler-Lagrange 方程的弱形式来解决这个问题。作为理论贡献,我们对每种解决方法的泛化误差提供了明确且定量的界限。在数值实现中,我们利用适当设计的神经网络作为基函数,经过多种方法的训练,使我们能够在训练后快速评估逼近函数。因此,我们的构造性解决方案在相同准确性下显著提高了评估速度,超过了现有方法数个数量级。
Oct, 2023
本文介绍了切片 Wasserstein 距离的一种新变体,并研究了在 Wasserstein 距离的蒙特卡罗估计中使用正交耦合的方法,并与分层抽样建立了联系,并在生成建模和强化学习的大规模实验中进行了性能评估。
Mar, 2019
本研究介绍了基于深度学习的一种小批量近似方法,用于在自动编码器和生成式对抗网络等现代生成模型中实现切片 Wasserstein 距离,以便在无监督情况下实现高分辨率图像和视频的生成,表现为当代最佳水平。
Jun, 2017