基于 Vertex Infomax 池化的图交叉网络
提出了 Coarsened Graph Infomax Pooling (CGIPool) 方法,通过最大化每个池化层输入和粗化图之间的相互信息来维护图级依赖关系,并应用对比学习和提出自注意力算法来实现相互信息神经最大化。在七个数据集上的大量实验结果证明了 CGIPool 相对于现有的最先进方法的优越性。
May, 2021
在该论文中,我们提出了一种改进的图池化网络(IGPN),包括区域感知池化策略、交叉融合模块和信息补充模块等创新点,该方法可以与现有的基于 GCN 的模型无缝结合,实验证明了我们提出的解决方案的有效性。
Apr, 2024
本文介绍了一种新的算子 Cross-feature Graph Convolution,它可以更好地处理重要的交叉特征,细致分析和实验证实了这一算子在 GCN 中的作用和性能,特别是在较低层的特征学习中表现得更为明显。
Mar, 2020
通过提出一种名为 MIVSPool 的新图池方法,该方法不会丢弃任何顶点信息,也不会人为地增加图的密度,通过最大独立顶点集(MIVS)选择存活的顶点和将其余的顶点分配给幸存者,实验结果表明在各种标准数据集上,该方法提高了图分类的准确性。
Aug, 2022
本文提出了一种新的自监督学习框架 GIANT,来优化节点特征提取过程中对图拓扑结构和节点属性的潜在相关性,并结合 XR-Transformers 方法,针对 Open Graph Benchmark 数据集通过 eXtreme Multi-label Classification 范式提高了 GNN 的性能。
Oct, 2021
本文提出了一种在分布式设置下使用节点采样的图神经网络的小批量训练与推断的方案,通过分析多跳邻域采样时的节点包含概率(VIP),提出基于 VIP 驱动的缓存策略,显著减少通信量,保持本地训练效率和可扩展性,并在常用节点特征上用 GPU 存储。通过 Open Graph Benchmark 数据集进行的实验表明,使用 SALIENT++ 在 8 个单 GPU 机器上训练 3 层 GraphSAGE 模型的速度比使用 SALIENT 在 1 个单 GPU 机器上快 7.1 倍,在 8 个单 GPU 机器上比使用 DistDGL 快 12.7 倍。
May, 2023
本文探讨了不同的图池化方法对基于混合数据增广方法(Manifold Mixup)的影响,并在自然语言和编程语言数据集上进行了实验,结果表明混合池化方法比标准的最大池化和最先进的图多重集变换器(GMT)池化更适合于 Mixup,具有更好的度量精度和鲁棒性。
Oct, 2022
本研究提出了一种基于图解析算法的图池化网络(Graph Parsing Network, GPN),通过学习每个个体图的个性化池化结构,提高了在图分类任务中的性能,同时在节点分类任务中保持了竞争力,并能通过相关测试来衡量内存和时间效率。
Feb, 2024
在这项研究中,我们开发了一种名为 Edge-aware hard clustering graph pooling (EHCPool) 的聚类图池化方法,用于提高 Graph Convolutional Networks (GCNs) 的表示学习能力,并获取异常脑图。EHCPool 首次基于边特征提出了 “边到节点” 的评估准则来评估节点特征的重要性。为了更有效地捕捉重要的子图,我们设计了一种新的迭代 N-top 策略来自适应地学习图的稀疏聚类分配。随后,我们提出了一种创新的 N-E 聚合策略,旨在聚合独立子图中的节点和边特征信息。该方法在多个脑成像公共数据集上进行了评估,并取得了最先进的性能,我们相信这是第一种具有从数据驱动角度探测不同类型异常功能性脑网络潜力的深度学习工具。
Aug, 2023