强大图表示的重建
本文提出了一种理论框架来分析图神经网络的表达能力和限制,并阐述了如何有效地捕捉不同的图结构。通过提出的一个简单的架构,实验验证了理论的发现,并取得了最先进的性能。
Oct, 2018
本文提出将图重写作为研究和比较图神经网络的形式模型,并将 GNN 表示为图重写系统,探讨其架构和算法。作者开发了一个基于 Groove 图重写模型的案例研究,用于模拟消息传递神经网络,并探讨其对动态更新的增量操作。
May, 2023
本文提出一种强化图表示学习模型鲁棒性的方法 - Robust Causal Graph Representation Learning(RCGRL),通过生成工具变量来消除图中干扰因素和混淆变量,同时保证了理论上的有效性,并在多个基准数据集上进行了实验,证明了该模型的预测性能和泛化能力均优于现有方法。
Aug, 2022
比较研究了使用不同的树模型对优化器在复杂工作负载下的成本估算和计划选择性能的影响,并探索了使用图神经网络在查询计划表示任务中的可能性。提出了一种新颖的树模型,结合有向图神经网络和门控循环单元(GRU),实验结果表明,与现有树模型相比,新的树模型在成本估算任务和计划选择性能方面具有显著改进。
May, 2024
该论文提出了一种新的方法,即将重整化群理论应用于设计一种新颖的图重连策略,以提高图神经网络在图形相关任务上的性能,结果表明这种方法的有效性和其挖掘各种系统固有复杂性潜力的能力。
Jun, 2023
本研究提出一种使用特殊算法和线性代数工具来分析图神经网络 (GNNs) 的表征能力的方法,证明 NNG 可以优于 Weisfeiler-Lehman 算法,同时在图同构和图分类等数据集上进行充分实验证明了这种新型的 GNN 架构更具表达力的特点。
May, 2022
在自然语言理解领域中,神经模型和图形意义表达(GMR)的交叉点仍然是一个引人注目的研究领域。本文通过引入 DAGNN-plus,一种简单且参数高效的神经架构,将上下文表示学习与结构信息传播解耦,从而填补 GMR 的确切影响的空白。通过与各种序列编码器和 GMRs 配对,该架构为英文和中文的两个数据集上进行系统实验提供了基础。实证分析使用了四种不同的图形形式和九个解析器。结果对 GMRs 的理解提供了细致入微的认识,显示出四个数据集中有三个的改进,特别是依靠高度准确的解析器的英文比中文更受青睐。有趣的是,与一般领域数据集相比,GMRs 对文学领域数据集的有效性较低。这些发现为更加明智地设计 GMRs 和解析器以提高关系分类奠定了基础,预计对自然语言理解研究的未来发展产生实质性影响。
Oct, 2023
我们提出了一种使用增强学习进行训练的 GNN 方法,通过移除边和 / 或节点找出最具预测性的子图,同时优化图分类任务的性能,从而在与基线相竞争的性能下,依赖于更稀疏的子图,从而产生更可解释的基于 GNN 的预测结果。
Apr, 2024
这篇论文提出了 Nested Graph Neural Networks (NGNNs) 框架,通过将节点表示编码为子图而不是子树来表示整个图,从而比 1-WL 更强大地区分几乎所有 r 正则图,并且在基准数据集上表现出高度竞争性表现。
Oct, 2021
本文提出了一种针对图神经网络的对抗攻击方法,通过图重连的操作,使用强化学习生成对于目标模型影响较小的扰动,并在真实图数据集上进行实验及分析,证明该方法的有效性。
Jun, 2019