NeuroMatch 利用图神经网络将查询和目标图分解成小的子图,并在嵌入空间中直接实现子图匹配,实验证明其比现有的组合匹配方法快 100 倍,比现有的近似子图匹配方法精度高 18%。
Jul, 2020
本文提出了两个关键性贡献:首先是演示了图神经网络如何训练并嵌入向量空间,以便有效地进行相似性推理;其次是提出了一种新的图匹配网络模型,通过新的跨图注意力匹配机制,在一对图之间共同推理,计算它们之间的相似度得分。在不同领域的实验分析表明,本文提出的模型不仅能够在相似性学习的上下文中利用结构,而且能够优于针对此类问题精心设计的基线系统。
Apr, 2019
提出了一种基于子图分区的图增强学习排序模型,该模型整合了子图匹配网络和增强双边多角度匹配模型,用于知识图谱问答中的答案选择。在多个基准数据集上的实验结果表明,该方法具有很好的效果。
Nov, 2021
通过图神经网络结合数据驱动和传统方法,该研究提出了一种解决图匹配问题的模型,该模型利用了随机抽样策略降低了计算复杂度和 GPU 内存使用,并在几个任务上得到了显著的性能提升。
Mar, 2024
该研究分析了完全子图枚举的必要性,证明了通过考虑子图的一个小子集可以获得可比较的表达能力,进而提出了 MAG-GNN,一种强化学习增强的 GNN,用于解决最优子集的组合优化问题。该方法通过将指数复杂度的子图枚举降低为常数复杂度的子图搜索算法,同时保持了良好的表达能力。实验结果显示 MAG-GNN 在多个数据集上表现出竞争性性能,甚至优于许多子图 GNN 方法,并有效减少了子图 GNN 的运行时间。
Oct, 2023
本文提出了一种高并行性图神经网络的再排序方法,将传统的再排序过程分为检索高质量图库样本和更新特征两个阶段,并在实验中验证了该方法的实时处理能力和检索效果。
Dec, 2020
该论文提出了一种新的 Graph Neural Network 体系架构(RioGNN),通过使用增强、递归和灵活的邻域选择机制来处理复杂和多样化的边缘,并通过在不同关系之间筛选重要关系来提高效率和解释性。实验结果表明,该方法比其他比较方法更有效,更高效,并具有更好的模型解释性。
Apr, 2021
本文提出一种图检索机制叫做 GraphRetrieval 通过检索训练图来加强现有的图神经网络模型,利用自注意力的适配器从被检索图中获取有益信息并消除噪声,实现了对现有 GNN 模型效果的显著提升。
Jun, 2022
本文提出使用强化学习中一种无模型的代理,即基于图神经网络编码的目标计算图,并迭代输出一个经过转换的计算图的方式,来学习执行神经网络数据流图重写。我们展示了我们的方法在一系列深度学习模型上超越了现有的超优化系统,并在基于转换器式架构的模型上实现了高达 40%的性能提升。
Apr, 2023
SUREL 是一种可伸缩的 subgraph-based graph representation learning(SGRL)框架,通过步行分解子图来构建和重用子图,从而实现减少子图提取的冗余和支持并行计算,相较于 SGRL 基线,SUREL 达到 10 倍的加速,而预测性能相当甚至更好;而与规范的 GNN 相比,SUREL 实现了 50%的预测准确度提高。
Feb, 2022