- 节点分类的全局 - 局部图神经网络
提出了一种名为 Global-Local-GNN (GLGNN) 的方法,通过利用全局和局部信息以及节点标签和特征的学习,提高了节点分类 GNNs 的性能,并显示了全局信息利用对节点分类的重要性。
- 超几何基准测试揭示了图神经网络性能与网络拓扑特征的关系
我们介绍了一个用于图机器学习的全面基准测试框架,关注 GNN 在各种网络结构上的性能,结果强调了模型性能依赖于网络结构和节点特征之间的相互作用,并为模型选择提供了见解。
- 图神经网络的条件局部特征编码
图神经网络通过条件局部特征编码 (CLFE) 来解决节点特征被局部邻域信息主导的问题,并在四个图领域任务中通过实验证明了其提高模型性能的可行性。
- 基于网络控制理论的特征增强以提高图机器学习性能
在缺乏节点级信息的情况下,将网络控制理论(NCT)与特征增强相结合,可以大幅提高图神经网络(GNNs)的性能,进而拓展其应用范围。
- 基于频谱扩散的图生成
本文介绍了 GRASP 模型,这是一种基于图拉普拉斯矩阵的频谱分解和扩散过程的新颖的图生成模型。我们使用去噪模型从图上采样特征向量和特征值,通过它们可以重构图拉普拉斯矩阵和邻接矩阵。该模型能够处理节点特征,并利用拉普拉斯谱自然地捕捉图的结构 - 时态图中的节点特征预测的在线算法
我们在这篇论文中提出了一种名为 “mspace” 的在线算法,用于预测时态图中的节点特征,该算法巧妙地捕捉到不同节点之间的空间交叉相关性以及节点内部的时间自相关性。与基于图神经网络(GNN)模型和传统卡尔曼滤波器等各种基准方法进行了比较评估 - GNN-LoFI: 基于本地特征的直方图相交的新型图神经网络
本文提出了一种新的图神经网络架构,用局部邻域中节点特征的分布分析替代了传统的信息传递方式,并通过直方图交集核函数将这些特征的相似性信息传播到网络中的其他节点,从而创造了一种类似于信息传递的机制。我们通过剔除实验评估了网络在不同超参数选择下的 - 通过社区感知特征预测节点属性
提出一种基于社区结构的节点特征家族,探索它们的性质,并证实它们在分类任务中具有高预测能力,包含了无法由经典节点特征或节点嵌入(无论是经典还是结构化)恢复的信息。
- 基于图神经网络的脑电信号分类:综述
通过系统综述和分类论述了基于图神经网络的脑电分类方法,发现光谱图卷积层在空间上存在较大优势,常见的节点特征为原始脑电信号和差分熵,同时提出了探索迁移学习方法和适当建模跨频率交互的方向。
- TouchUp-G: 通过图层重心微调改善特征表示
我们提出了 TOUCHUP-G,一个用于改善从 Pretrained Models 获取的节点特征以适应下游图学习任务的方法,通过引入 feature homophily 这一指标,它能有效地减小图结构和节点特征之间的差异,并在四个不同任务 - 数字孪生导向的复杂网络系统的异构特征表示
该研究旨在改善异构特征表征原则下基于数字孪生的复杂网络系统中节点特征的表达能力,并通过对真实节点特征分布的各种表征原则和优化特征偏好建立数字孪生系统,以重新创建不同国家的真实物理接触网络,并在最流行的节点开始的疫情爆发中调查其各自的抗灾能力 - 基于局部结构嵌入恢复遗失的节点特征
通过结合网络结构,我们提出了一种从一组图中完全恢复缺失节点特征的框架,该框架利用了先前的拓扑和节点特征信息,并通过聚合相似节点的已知特征来估计缺失节点值,在图基学习中强调了节点特征和图结构的关系。
- 几何汇合:保留更多有用的信息
提出了一种新的汇聚技术,称为几何汇聚(GP),通过测量所有节点特征的相似性,并保留具有负值节点特征的独特信息,进而从熵降低的角度揭示了 GP 的有效性。在 TU 数据集上的实验显示,该提议的 GP 具有比 SOTA 图汇聚技术更小的参数,同 - 过度压缩如何影响 GNN 的能力?
本文针对图结构数据上的机器学习所使用的最先进的模型 —— 图神经网络 (GNNs) 中的信息传递神经网络 (MPNNs) 类进行研究,分析了不同维度的节点特征在 MPNNs 中的表达能力,并通过新颖的量化特征来解释过压缩效应对 MPNNs - 异构图神经网络梯度正则化的统一方法
本研究提出了一种名为 Grug 的新型梯度正则化方法,它可以在消息传递过程中对传播消息和节点特征生成的梯度都进行迭代正则化。Grug 提供了一个统一框架,可以集成图拓扑和节点特征,并基于此进行详细的理论分析它们的有效性。
- 节点特征增强维生素化网络对齐
提出了一种名为 Grad-Align+ 的网络对齐方法,通过中心性节点特征增强、图神经网络辅助嵌入相似度计算以及 Grad-Align 中逐步发现节点对的信息,实现了在缺少锚定连接或节点特征信息的情况下高效准确的网络对齐。
- 扩张图传播
该研究使用扩展图形传递信息来提出了一种名为 EGP 的图神经网络,以解决全图分类或回归任务中的挑战,同时避免病态行为和过度压缩等问题,为解决 GNN 中的过度压缩问题开辟了一条新途径。
- 使用哈希的嵌入压缩技术,用于大规模图表现学习的高效方法
通过使用压缩方法,我们可以将节点嵌入用比浮点向量更紧凑的向量表示,从而实现在工业级规模的图形数据上快速训练图神经网络,同时达到更好的性能。
- 从消息传递的角度重新审视基于分解的 GNN 模型
本文提出 ReFactor GNNs 架构,实现了在较少参数使用的情况下,在诸多知识图谱完成基准测试中达到与 FMs 相当连接性能的跨语境性,同时在归纳性能方面达到最新水平,同时结合了因子分解模型和图神经网络的优点。
- KDD基于结构化变分图自编码器的准确节点特征估计
本文提出了一种名为 SVGA 的结构化变分图自编码器方法,通过结构化变分推理建模变量的先验分布,并将概率推理和图神经网络相结合,实现了对缺失节点特征的高精度估计。