利用同态性挖掘网络中的模式
图神经网络是一种用于学习图上不变函数的架构。本研究证明了现有方法中存在的不足,并提出了一种更精细化的方法,通过整合目标模式中所有结构的同构计数,实现了更加具有表达能力的架构,而不增加额外的计算复杂度。我们在标准基准数据集上进行了一系列理论和实证验证。
Feb, 2024
通过组合图神经网络、顺序嵌入空间和高效搜索策略,Subgraph Pattern Miner (SPMiner) 实现了在大型目标图中近似查找频繁子图模式,并相较于现有方法和可能的神经替代方案具有更高准确性、更快速度和更好的可扩展性。
Feb, 2024
本文研究了一个新的图学习问题:学习计算子图同构,提出了一种学习框架,通过增加不同的表示学习架构和迭代地注意图案和目标数据图来记住全局计数的子图同构,通过实验结果表明,基于学习的子图同构计数可以在线性时间内计算大型模式和数据图,而且与传统算法 VF2 相比,可以将速度提高 10-1,000 倍。
Dec, 2019
本文从图同态的角度研究了图分类问题,提出了使用同态数作为嵌入映射的自然不变量,在近似不变函数的时候证明了同态向量的普适性,特别是在选择树宽有限的元素族时,同态方法比其他方法更有效率。
May, 2020
在没有节点标签的情况下,我们提出了一种在不精确匹配的情况下识别子图与完整图之间节点对应关系的方法,该方法包括两个步骤:提取子图的最小唯一拓扑保持子集及在全图中查找可行匹配,实现基于边界可交换性的独特路径配对扩展匹配集,并通过共识算法。
Sep, 2022
我们提出了一种图同构的泛化方法,通过声明式规范来检查复杂的结构属性,其中规范以一种类似于正则表达式的图形形式给出,并且通过基于 SAT 的算法来检查目标图是否匹配给定的规范,并通过对 CodeSearchNet 数据集的广泛实验评估提出了一种优化算法的预处理技术。
Dec, 2023
通过分析图同态性的熵,我们提出了一种新的视角来研究图神经网络的泛化能力,并通过将图同态性与信息论度量联系起来,得出了适用于图和节点分类的泛化界限。通过我们提出的界限,能够捕捉到各种图结构的细微差别,包括但不限于路径、环和完全子图。通过图同态性,我们呈现了一个统一的框架,能够揭示广谱 GNN 模型的特性。通过在真实世界和人工合成数据集上观察到的泛化差距,我们验证了理论发现的实际可应用性。
Mar, 2024
本文提出了一种基于模式(Pattern)的图挖掘系统 Peregrine,该系统可以直接探索感兴趣的子图形并避免不必要的子图形探索和昂贵的计算,而且其编程模型可以处理 Graph Pattern 的语义,也能够在处理大规模图挖掘任务时保持简单易懂且表述力强。
Apr, 2020
本研究主要研究非同质图上的分布漂移问题,提出了一种新型的不变邻域模式学习(INPL)方法来缓解非同质图上的分布漂移问题,并通过在实际非同质图上的实验结果表明,INPL 能够实现在大规模非同质图上学习的最新性能。
Mar, 2024
本研究提出了一种名为 Count-GNN 的新型图神经网络模型,采用边为中心的消息传递方案和在图级别上进行的表示修正来解决子图同构计数问题,并在多个基准数据集上进行了广泛的实验证明其优越性能。
Feb, 2023