本文比较了基于强化学习和进化算法的两种神经架构搜索方法来优化图神经网络,结果在包括 7 个数据集的两个搜索空间内显示出两种方法的准确性与随机搜索相似,引出了有多少搜索空间维度实际上与问题相关的问题。
Jul, 2020
本文为了解决图神经网络结构设计中的耗时领域,提出了一种自动化图神经网络(AGNN)框架,使用强化学习的控制器去贪婪地验证架构,可以在预定义的搜索空间内找到最优的 GNN 架构,实现了参数共享的优化,可以大幅提升搜索效率,并在真实世界的基准数据集上进行了实验证明。
Sep, 2019
本文介绍了一种名为 SNAG 的框架,通过一种基于强化学习的搜索算法和一个新颖的搜索空间,用于寻找适合于图神经网络的架构,并与其他方法进行了广泛实验。结果表明,SNAG 框架比人工设计的 GNN 和其他 NAS 方法,包括 GraphNAS 和 Auto-GNN 方法更加有效。
Aug, 2020
本文研究图形池化(Graph pooling)对图神经网络(GNN)性能的影响,使用随机化或补图聚类的变体挑战了保留局部性表示的必要性,并表明了卷积层在学习表示中的领导作用。与普遍认为的不同,局部池化并非导致 GNN 在相关且广泛使用的基准测试中获得成功的原因。
Oct, 2020
本论文介绍了一种基于图傅里叶变换的池化算子及其在分层池化中的设计应用,该算子能够在池化过程中利用节点特征和局部结构,与传统的 GCN 卷积层结合形成用于图分类的图神经网络框架 m,实验结果表明该框架具有良好的效果。
Apr, 2019
本文探讨了如何在图形分类中利用图卷积网络(graph convolutional networks)进行节点嵌入(node embeddings)、不可区分形式学习(representation learning)和不可区分形式学习(differentiable graph coarsening),并且没有牺牲稀疏性,为未来基于图形的神经网络研究指出了重要方向。
Nov, 2018
本文提出一种基于自注意力机制的图池化方法,使用图卷积实现自注意力,同时考虑节点特征和图拓扑结构,实验结果表明该方法在基准数据集上具有优异的图分类性能。
本篇论文提出了一种不需要标记技巧,同时能够在维护泛化能力的同时提高可扩展性的用于子图分类的机器学习模型 Stochastic Subgraph Neighborhood Pooling (SSNP),通过结合子图和其邻域的信息,以及简单的数据增强预处理步骤来多视角观察邻域的信息,并在大规模图像数据集上的实验证明其在性能和速度方面的优越性。
Apr, 2023
提出了 HoscPool,一种基于聚类的图池算子以及它的聚类组件,通过最小化松弛的基元谱聚类来学习概率群分配矩阵,从而丰富图形表示,并在图分类任务和地面真实社区结构图上取得了最佳表现。此外,对汇集算子的内部功能进行了深入的实证分析。
Sep, 2022
本研究提出了一种基于图解析算法的图池化网络(Graph Parsing Network, GPN),通过学习每个个体图的个性化池化结构,提高了在图分类任务中的性能,同时在节点分类任务中保持了竞争力,并能通过相关测试来衡量内存和时间效率。
Feb, 2024