本文提出一种基于自注意力机制的图池化方法,使用图卷积实现自注意力,同时考虑节点特征和图拓扑结构,实验结果表明该方法在基准数据集上具有优异的图分类性能。
Apr, 2019
本研究提出了一种新的框架,双注意力图卷积网络,用于解决图分类任务中邻域汇聚和池化操作的问题,并通过实验比较证明了该模型优于其他基线模型和深度学习方法。
我们提出了一种名为 Attentive Pooling 的方法,可用于在神经网络中进行排名或分类,并且能够学习一种类似度量,以便使得输入内容能够影响彼此的表示,并引导池化。我们在三个基准任务中得到了最新的实验结果,并优于各种强基线模型。
Feb, 2016
提出了 Coarsened Graph Infomax Pooling (CGIPool) 方法,通过最大化每个池化层输入和粗化图之间的相互信息来维护图级依赖关系,并应用对比学习和提出自注意力算法来实现相互信息神经最大化。在七个数据集上的大量实验结果证明了 CGIPool 相对于现有的最先进方法的优越性。
May, 2021
本研究提出 Causal Attention Learning (CAL) 策略,利用因果推断来处理图分类过程中存在的 confounding effect of shortcuts,该方法借助注意力模块估计因果特征和快捷特征,并对因果理论进行参数化背门调整。实验结果表明,CAL 策略在合成和真实数据集上均取得了良好的效果。
Dec, 2021
使用自适应聚类模块将关键点分成不同的子图,从而实现降低冗余的连通性,减少运行时间和内存使用,同时在各种计算机视觉任务上具有竞争性的性能。
Apr, 2022
本研究提出了一种名为 SubGattPool 的算法,它能够联合学习子图注意力,利用两种不同类型的分层注意机制,以找到层次结构中的重要节点和图形中各层次结构的重要性,从而解决了现实世界中的图形分类问题,并在多个公开可用的图形分类数据集上取得了显著的性能提升。
Jul, 2020
该研究介绍了图卷积注意力层(CAT)和 GNN 架构(L-CAT),旨在充分利用两种方法的优势并自动插值 GCN,GAT 和 CAT。研究结果表明,在一系列数据集中,L-CAT 能够有效地组合不同的 GNN 层,优于竞争方法,从而减少了交叉验证的需求。
Nov, 2022
本研究提出了一种基于 LaPool 的 Hierarchical Graph Pooling 方法,该方法可以提高图分子的表示,有助于药物设计和有效的分子生成。这种方法已经在分子图预测和理解任务上进行了基准测试,并且表现出优于最近 GNN 的性能,同时它也在非分子任务上表现出良好的竞争力。此外,定量和定性评估证明了 LaPool 的解释性和其在药物设计中的潜在益处,并且该方法的可用性也被证明可以集成到对抗性自动编码器中,以生成有效和新颖的分子。
May, 2019
本文针对图神经网络进行多个实验,并研究其在节点分类问题中的理论表现。研究结果指出,图注意力机制可以区分类内和类间边缘,重要边的权重得以保留,进而实现完美的节点分类。
Feb, 2022