图神经网络的边缩减池化
在这项研究中,我们开发了一种名为 Edge-aware hard clustering graph pooling (EHCPool) 的聚类图池化方法,用于提高 Graph Convolutional Networks (GCNs) 的表示学习能力,并获取异常脑图。EHCPool 首次基于边特征提出了 “边到节点” 的评估准则来评估节点特征的重要性。为了更有效地捕捉重要的子图,我们设计了一种新的迭代 N-top 策略来自适应地学习图的稀疏聚类分配。随后,我们提出了一种创新的 N-E 聚合策略,旨在聚合独立子图中的节点和边特征信息。该方法在多个脑成像公共数据集上进行了评估,并取得了最先进的性能,我们相信这是第一种具有从数据驱动角度探测不同类型异常功能性脑网络潜力的深度学习工具。
Aug, 2023
本文研究图形池化(Graph pooling)对图神经网络(GNN)性能的影响,使用随机化或补图聚类的变体挑战了保留局部性表示的必要性,并表明了卷积层在学习表示中的领导作用。与普遍认为的不同,局部池化并非导致 GNN 在相关且广泛使用的基准测试中获得成功的原因。
Oct, 2020
本论文介绍了一种基于图傅里叶变换的池化算子及其在分层池化中的设计应用,该算子能够在池化过程中利用节点特征和局部结构,与传统的 GCN 卷积层结合形成用于图分类的图神经网络框架 m,实验结果表明该框架具有良好的效果。
Apr, 2019
提出了使用可训练投影向量评估节点重要性来选择新图形的最重要的 K 个节点以达到与图像最大池化层相同目的的图形池 (pooling) 层。同时,结合 GCN 和普通卷积运算进行的混合卷积层 (hConv) 能够快速增加接受野 (receptive field),自动计算特征等功能,基于提出的 gPool 和 hConv 层,我们为文本分类任务开发了新的深度网络,结果证明基于这些层的网络相比于基线方法具有新的最先进性能。
Jan, 2019
提出了一种新的图显式汇聚(GrePool)方法,通过明确利用节点之间的关系和最终表示向量的选择,解决了现有图汇聚方法中的两个关键问题,并进行广泛的实验证明其在分类准确度方面优于 14 个基线方法。
Nov, 2023
本文提出了一种名为 Edge-Node Attention-based Differentiable Pooling (ENADPool) 的新层次池化操作,用于学习有效的图表示,同时还提出了与 ENADPool 操作相关的多距离 GNN (MD-GNN) 模型,以解决传统层次池化操作中存在的问题。
May, 2024
本文提出了面向图形数据的表示学习的新方法,包括 gPooling 和 gUnpooling,并基于这些方法开发了一种编码器 - 解码器模型 —— 图形 U-Nets,实验结果表明该模型在节点分类和图形分类任务中的性能明显优于先前的模型。
May, 2019
本文提出 EdgeNet 框架,将现有的图卷积神经网络(GCNNs)和图注意力网络(GATs)统一起来,使得同一问题可以使用不同的 GNN 结构来解决,并且指导和优化各种 GNNs 的性能和实现。
Jan, 2020
本文提出一种新的基于小波压缩的图池化技术 —HaarPooling,用于 Deep Graph Neural Networks 中的图分类和回归问题,实现了数据的稀疏表征和结构信息的保留,使 GNNs 在各种图分类和回归问题上达到了最先进的性能。
Sep, 2019
该研究论文通过扩展深度学习到图结构数据集,提出一种基于路径积分的图神经网络模型 (PAN 网络),通过该模型中的卷积操作和节点的中心性得分以及边特征的处理,实现了对复杂异构图的预测任务。
Feb, 2023