通过图的混合进行图稀疏化
该论文引入了 Mixture-of-Expert(MoE)思想到图神经网络中,提出了一种新的 Graph Mixture of Expert(GMoE)模型,用于同时建模多样的训练图结构,通过在 OGB 基准测试中表现的提升来验证 GMoE 的有效性。
Apr, 2023
本文提出了一种基于渐进式图剪枝 (CGP) 的图神经网络 (GNN) 压缩框架,综合剪枝了图结构、节点特征和模型参数,同时引入重生过程以重新建立重要的连接,实验结果表明 CGP 策略在提高训练和推断效率的同时保证准确性超过了现有方法。
Jul, 2022
本文从样本复杂度和收敛速率的角度,首次提供了从联合边缘 - 模型稀疏学习的理论特性,证明了重要节点抽样和低幅度神经元剪枝可以减少样本复杂度,提高收敛速度,而不影响测试精度。
Feb, 2023
图稀疏训练(GST)提出了一种动态调整数据层稀疏度的方法,通过 Equilibria Sparsification Principle 来实现拓扑和语义信息的平衡,从而产生一个具有最大拓扑完整性且没有性能下降的稀疏图。
Feb, 2024
图神经网络 (GNNs) 在各种图结构模式下的节点分类任务中已被证明非常有效。然而,现实世界的图通常展现出复杂的同构和异构模式的混合,使用统一的全局过滤器方法则不够优化。为解决这个问题,我们引入了一种新颖的 GNN 框架 Node-MoE,使用专家混合来自适应地选择不同节点的适当过滤器。广泛的实验证明了 Node-MoE 在同构和异构图上的有效性。
Jun, 2024
本文介绍了一种新的框架,使用图神经网络 (GNNs) 中的有效设计来稀疏化脑图,以优化脑图分类任务。该新模型称作 “可解释的图稀疏化”(IGS),通过减少脑图的边数(最多 55.0%),提高了最多 5.1% 的分类性能,并提出了新的脑科学解释。
Jun, 2023
我们提出了一种使用增强学习进行训练的 GNN 方法,通过移除边和 / 或节点找出最具预测性的子图,同时优化图分类任务的性能,从而在与基线相竞争的性能下,依赖于更稀疏的子图,从而产生更可解释的基于 GNN 的预测结果。
Apr, 2024
将研究成果分类为特定上下文的标签分类体系是一项具有挑战性且相关的下游任务,该论文提出了一种方法,通过使用边异构图来增强简单的图神经网络(GNN)管道的性能,实验证明边异构图能够提高 GNN 模型的性能,这项研究有望在节点分级分类方面提供性能改进。
Sep, 2023
该论文提出了一种基于 L0 正则化的 Sparse Graph Attention Networks,可以对大规模、复杂的图进行特征聚合,鲁棒性与有效性更高,达到与原始图相同或更高的预测性能;同时,其使用结果可视化和量化表达,让人更加容易理解。
Dec, 2019