图的Bures-Wasserstein平均值
本文综述了在图表示学习领域中,基于深度学习和非线性降维等技术的自动编码图结构为低维向量方法,包括基于矩阵分解、随机游走、图神经网络等方法,并开发了一个统一框架描述这些最新的方法,并为未来的工作提出了一些重要应用和方向。
Sep, 2017
本文介绍了一种基于Wasserstein距离和Weisfeiler-Lehman embedding的新型图卷积核方法,以图像高维对象的方式比较图结构之间的相似性并在多个图分类任务上提高了预测性能。
Jun, 2019
该研究提出了第一个统一的理论框架,将节点嵌入和结构图表示相结合,通过不变量理论证明了结构表示和节点嵌入之间的关系,证明了能够使用节点嵌入执行的所有任务也都可以通过结构表示执行,并且介绍了新的指南来生成和使用节点嵌入,修复了现有标准操作程序的显著缺点。
Oct, 2019
本文提出一种名为 GRAPHEDM 的综合方法,旨在将有标注数据的网络嵌入、基于图的正则化神经网络和图神经网络三者统一起来,构成一种用于学习图表征的完整分类法。通过将现有的30多种算法整合到这一框架中,本方法具有很高的通用性,从而提供了理解这些方法背后的直觉基础,促进了此领域未来研究的发展。
May, 2020
本研究提出了针对图学习的 Wasserstein Embedding 方法,并应用不同的机器学习模型来进行图预测任务,利用节点嵌入分布的相似度来定义图之间的相似性,并用 Wasserstein 距离度量两者之间的差异,不同于现有方法,避免了两两计算不同的图之间的距离,将计算复杂度从二次线性降至一次线性,并证明了该方法在各项基准图属性预测任务中具有优秀的分类表现及计算效率。
Jun, 2020
本文提出了一种名为residual2vec的新型图嵌入方法,通过使用随机图来去除不同结构偏见,不仅改善了链接预测和聚类性能,还允许我们在图嵌入中明确地建模突出的结构特性。
Oct, 2021
本文首次阐明了 Weisfeiler-Lehman 测试仅考虑了图一致性因而弱化了结构信息描述能力的事实,并定义了一种叫做 Wasserstein WL subtree (WWLS) 距离的度量。通过引入 WL 子树作为节点附近的结构信息并将其指定给每个节点,我们定义了一种新的基于 L_1 近似树编辑距离(L_1-TED)的图嵌入空间,并且使用 Wasserstein 距离来反映将 L_1-TED 度量到图级别的变化。我们在多个图分类和度量验证实验中展示了 WWLS 的性能。
Jul, 2022
该研究从不同的角度研究了图的加粗技术,并提出了一种保持图距离的方法,该方法使用 Gromov-Wasserstein(GW)距离,并采用加权核 K-means 方法最小化两个图的距离及其加粗版本之间的差异,以此来改进现有的谱保存方法。研究还包括一组实验,支持理论和方法,包括利用谱信息对图进行分类和回归。
Jun, 2023
本文研究图嵌入的质量以及其在社区检测方面的有效性,通过使用灵活的距离函数捕捉不同顶点之间的拓扑距离,将顶点嵌入作为距离矩阵的变换结果进行分析,并在多个基准数据集上进行评估。结果表明,该方法操作于降维表示,使得计算复杂度大为减少,且性能与传统算法相媲美。
Apr, 2024