Eigen-GNN: 一种用于保留图结构的插件的 GNN 插件
本研究提出自动设计深层 GNN 的方法,其中添加了新型的跳跃连接以促进特征重用和缓解梯度消失问题,并允许进化算法在演化过程中增加 GNN 层数来生成更深的网络,在 Cora、Citeseer、Pubmed 和 PPI 数据集上实验表明,GNNs 的生成结果具有最先进的性能。
Nov, 2020
本篇论文提出了一种使用无限深度的图神经网络模型 ——Efficient Infinite-Depth Graph Neural Networks (EIGNN) 来有效捕获底层图中的长程依赖性,同时可以使用特征值分解来实现更有效的计算。实验结果表明,该模型在捕获长程依赖性方面比现有模型表现更好,并且在不同噪声和对节点特征的对抗扰动下表现更为鲁棒。
Feb, 2022
该论文分析了深度图神经网络的瓶颈问题以及提出了一种基于狄利克雷能量的通用原则,通过该原则设计了一种新型深度图神经网络框架 - EGNN,并在实验结果中取得了最新颖的表现。
Jul, 2021
本研究提出了新的 Ego-GNN 方法,通过增加在每个节点周围子图中定义的信息来扩展 GNN 的消息传递操作,并证明了 Ego-GNN 比标准消息传递 GNN 更强大,能够识别封闭三角形,从而在绝大多数现实世界的图中更有效地进行节点分类。
Jul, 2021
本文提出了一种名为 “Implicit Graph Neural Networks(IGNN)” 的图学习框架,其利用 Perron-Frobenius 理论来确保该框架的良好性,并利用隐式微分得到一种可行的投影梯度下降法来训练该框架,实验证明 IGNN 可以稳定捕捉长程依赖并优于现有的 GNN 模型。
Sep, 2020
在复杂网络中,图神经网络(GNNs)在各种基于学习的任务中表现出显著的优势。然而,对于许多网络应用而言,节点级信息可能缺失或不可靠,从而限制了 GNNs 的适用性和效果。为了解决这个问题,我们提出了一种名为 Ego-centric Spectral subGraph Embedding Augmentation(ESGEA)的新方法,旨在增强和设计节点特征,特别是在信息缺乏的情况下。我们的方法利用局部子图的拓扑结构来创建具有拓扑感知能力的节点特征。子图特征通过高效的谱图嵌入技术生成,并作为捕捉网络局部拓扑结构的节点特征。如果存在显式节点特征,则使用子图嵌入来增强这些特征以提高整体性能。ESGEA 适用于任何基于 GNN 的架构,即使在没有节点特征的情况下也能有效。我们在一个社交网络图分类任务以及一个节点分类任务上对所提出的方法进行了评估,其中节点属性不可用或特征被破坏甚至不存在。对七个数据集和八个基准模型的评估结果表明,在图分类任务和节点分类任务中,AUC 值和准确度分别提高了 10% 和 7%。
Oct, 2023
使用图神经网络(GNNs)学习连贯且有区分力的节点表示以进行聚类在深层图聚类中已经显示出了良好的结果。然而,现有方法忽视了表示学习与结构增强之间的相互关系。该研究表明,增强嵌入和结构的协同作用对于释放 GNNs 在深层图聚类中的潜力变得必要。可靠的结构促进获取更连贯的节点表示,而高质量的节点表示可以指导结构的增强,从而提高结构的可靠性。此外,现有基于 GNNs 的模型的泛化能力相对较差。尽管它们在具有高同质性的图上表现良好,但在具有低同质性的图上表现较差。为此,我们提出了一个名为 Synergistic Deep Graph Clustering Network(SynC)的图聚类框架。在我们的方法中,我们设计了一个名为 Transform Input Graph Auto-Encoder(TIGAE)的模型来获取高质量的嵌入,并用于引导结构增强。然后,在增强的图上重新捕捉邻域表示以获得适合聚类的嵌入,并进行自监督聚类。值得注意的是,表示学习和结构增强共享权重,从而大大减少了模型参数的数量。此外,我们引入了一种结构微调策略以提高模型的泛化能力。对基准数据集进行的大量实验证明了我们方法的优越性和有效性。代码已在 GitHub 和 Code Ocean 上发布。
Jun, 2024
本文介绍了一种新的模型来学习具有等变性的图神经网络,称为 EGNN,此方法不需要在中间层中计算昂贵的高阶表示,同时具有竞争力或更好的性能,在 3 维空间等变性上具有比现有方法更大的伸缩性,并在动态系统建模,图自编码器中的表征学习和预测分子性质方面证明了其有效性。
Feb, 2021