有限监督下的潜在图推理
本文提出一种用于半监督图节点分类的“图推理学习”(GIL)框架,通过学习节点标签的推理,提高分类性能,定义节点属性、节点路径和局部拓扑结构之间的结构关系,从而方便地从一个节点推导出另一个节点的推理,通过在训练节点到验证节点上进行结构关系的元优化,使学习到的图推理能力更好地适应测试节点。在四个基准数据集上进行了全面评估,结果表明,与半监督节点分类任务中最先进的方法相比,我们提出的GIL方法具有卓越的性能。
Jan, 2020
本研究提出Causal Attention Learning (CAL)策略,利用因果推断来处理图分类过程中存在的confounding effect of shortcuts,该方法借助注意力模块估计因果特征和快捷特征,并对因果理论进行参数化背门调整。实验结果表明,CAL策略在合成和真实数据集上均取得了良好的效果。
Dec, 2021
本研究探讨了基于自监督时间修剪框架的无监督动态图修剪问题,旨在删减冗余边降低时间与空间负担,并在真实数据集上验证了该方法对于提高动态节点分类任务中GNN的效率、鲁棒性和效果的优越性。
May, 2023
通过引入可训练的深度学习架构 —— 神经雪花,对给定的有限权重图进行等距嵌入,以适应动态重连或推断图的预测性下游性能,以实现低维等距嵌入潜在图,并通过与MLP编码器的组合,以低次多项式数量的参数使用,不陷入维度诅咒,从而实现改进的性能,而无需随机搜索最佳潜在几何结构。
Oct, 2023
本研究提出了一种不同iable方法,通过反向传播,根据下游任务选择最佳嵌入空间来进行潜在图推理,从而消除了进行多个实验以确定最佳嵌入空间的需要。此外,我们还探索了一种可解释性技术,通过跟踪不同潜在图的梯度贡献,揭示了我们的基于注意力的完全不同iable方法如何学习选择适当的潜在空间。与以前的研究相一致,我们的实验证明了超球面空间在提高性能方面的优势。更重要的是,我们的可解释性框架提供了一种通用方法,根据它们的贡献,量化比较不同任务中的嵌入空间,这一维度在以前的潜在图推理文献中被忽视。
Nov, 2023
图稀疏训练(GST)提出了一种动态调整数据层稀疏度的方法,通过Equilibria Sparsification Principle来实现拓扑和语义信息的平衡,从而产生一个具有最大拓扑完整性且没有性能下降的稀疏图。
Feb, 2024
通过无监督学习简化后的多层感知器(MLPs)在图表上进行学习,以增强泛化效果,特别是在未见节点的设置中,实现了显著的性能提升(7-26%)和图表推断加速(90-126倍),在大规模图表数据集上优于现有基准方案。
Feb, 2024
使用混合图(MoG)技术对图神经网络进行图稀疏化处理,针对每个节点的特定环境选择合适的稀疏方案,并在Grassmann流形上生成最优稀疏图,从而实现更高的稀疏度水平、GNN推理速度的提升,并改善“顶级学生”GNN在性能上的表现。
May, 2024
本研究针对传统图划分(GP)方法的效率低下问题,提出了一种名为PR-GPT的创新框架,该框架结合了预训练和细化的理念。核心发现是,通过在小型合成图上进行离线预训练,PR-GPT能够有效地将模型推广至大型图,从而提高图划分的速度和质量,且无需重新训练,具备良好的推理效率和流处理支持。
Sep, 2024
本研究针对图神经网络(GNN)在推理成本高的问题,提出了一种稀疏分解的方法,通过减少聚合时纳入的节点数量来降低计算复杂度。这种方法能够有效提高模型的推理速度,同时保持与传统GNN模型相似的准确性,具有重要的应用潜力。
Oct, 2024