本文提出了一种新的、高效且可扩展的图深度学习架构,通过使用不同尺寸的图卷积滤波器,绕过了图采样的必要性,从而允许极快速的训练和推理,同时在比对测试中展现了与其他最先进架构相竞争的表现,对于包含超过 1.1 亿个节点和 15 亿条边的公共图数据集 ogbn-papers100M 实现了最先进的结果。
Apr, 2020
GNNS 是一种基于图神经网络的新型表示学习框架,可以高效地采样子图并估算其频率分布,达到与现有方法相当的准确性和显著的加速效果。
Jul, 2022
为了解决现有 GNN 模型在图形和模型规模上的可伸缩性有限的问题,我们提出了一种设计原则来解耦 GNN 的深度和范围,从而获得更好的表达能力和更少的计算成本。
Jan, 2022
本文提出了一种基于抽样的算法,有效地从大规模网络中准确估算子图统计量,并展示实验结果表明其能更加快速地完成与现行技术相同准确度的查询量(样本量)
Jun, 2013
本文探讨了在大规模情况下有效和高效地部署图神经网络的问题,并介绍了我们在 Open Graph Benchmark Large-Scale Challenge 上使用的两个大规模 GNNs 模型的性能。通过这项工作,我们展示了可扩展的自监督图表示学习的证据和非常深层次的 GNNs 的实用性。
Jul, 2021
使用 SubGNN 模型对含有多个离散链接的生物医学数据集上的子图进行预测任务,通过神经路由机制,网络能够学习分离的子图表示,其中指定了三个信道以捕捉子图拓扑的不同方面,并在 8 个子图分类数据集上以及具有复杂拓扑结构和多个未连接组件的具有挑战性的生物医学数据集上优于基线模型 19.8%。
Jun, 2020
本篇论文提出了一种不需要标记技巧,同时能够在维护泛化能力的同时提高可扩展性的用于子图分类的机器学习模型 Stochastic Subgraph Neighborhood Pooling (SSNP),通过结合子图和其邻域的信息,以及简单的数据增强预处理步骤来多视角观察邻域的信息,并在大规模图像数据集上的实验证明其在性能和速度方面的优越性。
Apr, 2023
NeuroMatch 利用图神经网络将查询和目标图分解成小的子图,并在嵌入空间中直接实现子图匹配,实验证明其比现有的组合匹配方法快 100 倍,比现有的近似子图匹配方法精度高 18%。
Jul, 2020
介绍了一种使用强化学习算法 LeNSE 对大规模图形进行处理的低复杂度方法,可以找到原始图形中较小的子图,从而能够更高效地进行 NP-hard 问题的求解。
May, 2022
本文提出了一种分离式图神经网络方法,适用于连续型和离散型大型动态图,通过统一的动态传播方法,能够在预测任务中支持序列模型,实现了卓越的可扩展性和表现力,实验结果在连续型和离散型动态图上均达到了最先进表现。
May, 2023