可解释性脑图稀疏化:图神经网络的更佳实践和有效设计
我们提出了一种使用增强学习进行训练的 GNN 方法,通过移除边和 / 或节点找出最具预测性的子图,同时优化图分类任务的性能,从而在与基线相竞争的性能下,依赖于更稀疏的子图,从而产生更可解释的基于 GNN 的预测结果。
Apr, 2024
使用混合图 (MoG) 技术对图神经网络进行图稀疏化处理,针对每个节点的特定环境选择合适的稀疏方案,并在 Grassmann 流形上生成最优稀疏图,从而实现更高的稀疏度水平、GNN 推理速度的提升,并改善 “顶级学生” GNN 在性能上的表现。
May, 2024
图稀疏训练(GST)提出了一种动态调整数据层稀疏度的方法,通过 Equilibria Sparsification Principle 来实现拓扑和语义信息的平衡,从而产生一个具有最大拓扑完整性且没有性能下降的稀疏图。
Feb, 2024
通过学习预测哪些边可以被删除的分类器,我们提出了解释 GNN 模型预测的后续方法,并将其用作两个任务(问答和语义角色标记)的属性方法,分析信息流并证明删除大量边缘不会使模型性能下降,同时可以分析其余边缘以解释模型预测。
Oct, 2020
该研究提出了一个可解释性的框架,用于分析特定于疾病的感兴趣区域和突出连接。该框架包括一个面向脑网络的预测模型和一个全局共享的解释生成器,该生成器突出了特定于疾病的生物标记物。实验证明,该框架可以获得出色的性能并识别有意义的生物标记物。
Jun, 2022
IGNNet 是一个解释性图神经网络,用于处理表格数据,通过表征学习的方式捕获特征交互,大规模的实证研究证明 IGNNet 与 XGBoost、Random Forests 和 TabNet 等最先进的机器学习算法在处理表格数据时表现相当,同时 IGNNet 的解释与特征的 Shapley 值一致而无需额外的计算开销。
Aug, 2023
提出了一个可解释的 GNN 框架 BrainNNExplainer,用于脑网络分析,主要由两个联合学习的模块组成:为脑网络设计的骨干预测模型和突出疾病特定脑网络连接的解释生成器,广泛实验证明了 BrainNNExplainer 的独特解释性和优秀性能。
Jul, 2021
设计一种通过有价值的图数据识别重要子架构的联合图数据和架构机制,以搜索轻量级图神经网络 (GNNs) 的最佳架构,提出一种带有图稀疏化和网络修剪的轻量级图神经体系结构搜索 (GASSIP) 方法,并通过两个不可分割的模块优化这些模块来高效搜索最佳轻量级架构。
Jun, 2024
探索人脑的复杂结构对于了解其功能和诊断脑部疾病至关重要。最近通过将人脑建模为具有图结构的模式来研究,其中不同的脑区表示为节点,这些区域之间的功能关系表示为边。此外,图神经网络(GNNs)在挖掘图结构数据方面显示出明显优势。近来,开发用于脑部疾病分析的 GNNs 进行脑图表示学习已引起越来越多的关注。然而,目前缺乏对该领域中当前研究方法的系统调查。本文旨在通过回顾利用 GNNs 进行脑图学习的研究工作来填补这一空白。我们首先介绍基于常见神经影像数据的脑图建模过程。随后,我们根据生成的脑图类型和目标研究问题对目前的工作进行系统分类。为了使这项研究能够为更广泛的研究人员群体所用,我们概述了代表性的方法和常用数据集,并提供其实施源。最后,我们对未来研究方向给出了我们的见解。该调查的存储库可访问 https://github.com/XuexiongLuoMQ/Awesome-Brain-Graph-Learning-with-GNNs。
Jun, 2024