利奇流算子的图池化
本研究提出了一种名为EdgePool的图池化层,利用边缩减的概念来学习局部和稀疏的硬池化转换,证明EdgePool优于其他池化方法,并且易于集成到大多数GNN模型中,提高了节点和图的分类性能。
May, 2019
本篇研究提出 ASAP 池化方法,利用自注意力网络和改进后的图神经网络对节点的重要性进行建模,通过对多个数据集的实验和理论分析,证明了 ASAP 方法在图分类任务上的优足够表现,相比现有的稀疏分层方法平均提高了4%。
Nov, 2019
本文研究使用深度模块网络(DMoN)解决无监督图聚类中图分割困难的问题,通过实验表明DMoN对于真实世界的数据集能实现与最优结果强相关的高品质聚类效果,其表现优于其他不同指标的汇聚方法。
Jun, 2020
本文研究图形池化(Graph pooling)对图神经网络(GNN)性能的影响,使用随机化或补图聚类的变体挑战了保留局部性表示的必要性,并表明了卷积层在学习表示中的领导作用。与普遍认为的不同,局部池化并非导致GNN在相关且广泛使用的基准测试中获得成功的原因。
Oct, 2020
提出了 HoscPool,一种基于聚类的图池算子以及它的聚类组件,通过最小化松弛的基元谱聚类来学习概率群分配矩阵,从而丰富图形表示,并在图分类任务和地面真实社区结构图上取得了最佳表现。此外,对汇集算子的内部功能进行了深入的实证分析。
Sep, 2022
通过利用曲率概念,CurvPool构建了一个具有更适合结构的图形,以解决图神经网络中的过度平滑和过度压缩问题,并在分类准确性、计算复杂性和灵活性等方面表现出竞争力。
Aug, 2023
提出了一种新的图显式汇聚(GrePool)方法,通过明确利用节点之间的关系和最终表示向量的选择,解决了现有图汇聚方法中的两个关键问题,并进行广泛的实验证明其在分类准确度方面优于14个基线方法。
Nov, 2023
图池化方法在不同任务中的性能评估涵盖了15种图池化方法和21个不同的图数据集,以评估其在效果、鲁棒性和泛化性方面的性能,并通过深入的实验验证了图池化方法在各种场景中的强大能力和适用性,为深度几何学习研究提供了有价值的见解和指导。
Jun, 2024
本研究解决了大规模稀疏图在计算时的高成本问题,提出了一种新的池化操作,可以在合并节点的同时避免数据损失,且计算上简单高效。实验证明,该池化操作在四个基准数据集上显著优于传统的边池方法,平均降低计算复杂度和可训练参数70.6%。
Sep, 2024