- 一项全面的图池化基准测试:效果、鲁棒性和泛化性
图池化方法在不同任务中的性能评估涵盖了 15 种图池化方法和 21 个不同的图数据集,以评估其在效果、鲁棒性和泛化性方面的性能,并通过深入的实验验证了图池化方法在各种场景中的强大能力和适用性,为深度几何学习研究提供了有价值的见解和指导。
- SPGNN: 通过增强图卷积和池化识别显著子图模式
提出一种基于串联的图卷积机制和一种新颖的图池模块,用于增强识别非同构子图的区别能力,并且提出一种新颖的子图模式 GNN(SPGNN)架构,实验结果表明该方法在图分类方面具有与最先进的图核心和其他 GNN 方法相媲美的表现。
- ICLR图解析网络
本研究提出了一种基于图解析算法的图池化网络(Graph Parsing Network, GPN),通过学习每个个体图的个性化池化结构,提高了在图分类任务中的性能,同时在节点分类任务中保持了竞争力,并能通过相关测试来衡量内存和时间效率。
- SemPool: 简洁、稳健和可解释的知识图谱汇集以增强语言模型
我们提出了一种简单的图汇聚方法(SemPool),通过预训练语言模型表示知识图谱事实,学习聚合语义信息,并在语言模型的不同层次融合它,从而在缺乏答案信息的情况下优于现有的基于图神经网络方法的 2.27%准确性,同时提供了不同层次的语言模型融 - GPS: 基于对抗汇聚的多尺度增强视图的图对比学习
自我监督图表示学习是最近在生物信息学和社交网络等领域显示出相当潜力的技术。本文介绍了一种名为 Graph Pooling ContraSt(GPS)的新方法,通过重新思考图池化(graph pooling)并利用其自动生成多尺度的正视图,从 - 精心选择和深思熟虑的丢弃:利用被丢弃节点的图显式池化
提出了一种新的图显式汇聚(GrePool)方法,通过明确利用节点之间的关系和最终表示向量的选择,解决了现有图汇聚方法中的两个关键问题,并进行广泛的实验证明其在分类准确度方面优于 14 个基线方法。
- 无监督异常检测的图编码器 - 解码器网络
本文提出一种无监督的图编码 - 解码模型,通过学习异常评分函数来识别图中的异常节点,其中采用一种名为 LCPool 的新型汇聚机制来生成更粗糙的图表示,并提出了一种名为 LCUnpool 的解汇聚操作来重建原始图的结构和节点特征。经过实证评 - 高效对比图交互学习的共同关注图池化
提出了一种新颖高效的图级方法,通过图池化中的共同注意力来提取交互表示,该方法在使用真实世界数据集的分类和回归任务中相对于现有方法表现竞争力,同时保持较低的计算复杂度。
- 几何汇合:保留更多有用的信息
提出了一种新的汇聚技术,称为几何汇聚(GP),通过测量所有节点特征的相似性,并保留具有负值节点特征的独特信息,进而从熵降低的角度揭示了 GP 的有效性。在 TU 数据集上的实验显示,该提议的 GP 具有比 SOTA 图汇聚技术更小的参数,同 - AAAI图上的拓扑池化
提出使用持久同调和地标的复合拓扑池化层并设计新的局部和全局可学习的拓扑表示方法以从图中提取有区分性的拓扑信息,该方法在 11 个不同的基准数据集上超过 18 个基线模型,显示出对比竞争对手更佳的实验表现。
- AAAI用于抽象式多文档摘要的压缩异构图
HGSUM 是一种多文档摘要模型,其通过使用异构图来表示文档中的不同语义单元(例如单词和句子),并使用图池化进行压缩以保留文档中关键信息和关系。在训练中,HGSUM 使用另一种目标来最大化压缩图与来源自地面真实摘要构建的图之间的相似性,并通 - 混合池化增强基于 Mixup 的图学习在自然语言处理中的应用
本文探讨了不同的图池化方法对基于混合数据增广方法(Manifold Mixup)的影响,并在自然语言和编程语言数据集上进行了实验,结果表明混合池化方法比标准的最大池化和最先进的图多重集变换器(GMT)池化更适合于 Mixup,具有更好的度量 - 基于分组矩阵的图池化与自适应聚类数
GMPool 是一种新颖的可微的图池化架构,可以自动确定基于输入数据的适当聚类数,通过计算分组矩阵并分解它来获得池化算子,从而在分子属性预测任务中优于传统方法。
- 最大独立顶点集在图池化中的应用
通过提出一种名为 MIVSPool 的新图池方法,该方法不会丢弃任何顶点信息,也不会人为地增加图的密度,通过最大独立顶点集(MIVS)选择存活的顶点和将其余的顶点分配给幸存者,实验结果表明在各种标准数据集上,该方法提高了图分类的准确性。
- 理解和缓解图对比学习中的维度崩溃:一种非最大值消除方法
该论文提出了一种非最大值移除图对比学习方法,用于解决图对比学习中维度塌陷的问题,并在多种基准数据集上进行了全面的实验证明了该方法的有效性。
- 通过图信息最大化实现的图池化
提出了 Coarsened Graph Infomax Pooling (CGIPool) 方法,通过最大化每个池化层输入和粗化图之间的相互信息来维护图级依赖关系,并应用对比学习和提出自注意力算法来实现相互信息神经最大化。在七个数据集上的大 - ICLR使用图多重集池化准确学习图表征
提出了一个基于 Multiset 编码原理的 Graph Multiset Transformer (GMT) 图池化方法,通过多头注意力机制捕捉节点的结构依赖关系,克服了现有图池化方法的局限性,并在各项图形任务上表现出了优越性。
- 图神经网络中池化操作的重新思考
本文研究图形池化(Graph pooling)对图神经网络(GNN)性能的影响,使用随机化或补图聚类的变体挑战了保留局部性表示的必要性,并表明了卷积层在学习表示中的领导作用。与普遍认为的不同,局部池化并非导致 GNN 在相关且广泛使用的基准 - 图神经网络的二阶池化
本论文提出使用二阶汇集技术作为图聚合技术,结合双线性映射和注意力机制的二阶汇集方法性能优越,在图分类任务中取得了显著的表现提升。
- 基于结构特征的图自适应池化
我们提出了一种新颖的自适应图池化方法,它通过同时考虑图的结构和特征信息来构建合理的池化图拓扑,从而提高节点选择的准确性和客观性;并在丢弃无关节点之前聚合节点特征信息,以使选定的节点包含来自邻居节点的信息,从而增强未被选定节点的特征利用。实验