无需 GNN 的图节点分类
本研究发展出一种名为 LinkDist 的方法,它利用连接节点对的自身知识来提取无需聚合消息的多层感知机 (MLP),并在半监督和全监督节点分类方面表现出与 GNNs 相对可比的准确性。此外,LinkDist 从其非消息传递范式中受益,我们可以用对比的方式从任意抽样的节点对中提取自知识,从而进一步提高 LinkDist 的性能。
Jun, 2021
使用知识蒸馏技术将图神经网络(GNNs)和多层感知器(MLPs)相结合,提出了无图依赖的神经网络 GLNNs,并在 7 个数据集的生产环境中证明其比 GNNs 更快且准确率接近,适用于延迟受限的应用程序。
Oct, 2021
本文提出了一个基于多层感知机的图神经网络模型 (Graph-MLP),通过利用图结构的监督信号,该模型仅使用多层感知机、激活函数和层归一化,而无需用到信息传递模块,在 loss level 中,设计了一个邻域对比损失 (NContrast),能够在大规模图数据和损坏的邻接信息中更轻巧、更强韧地进行分类任务,并证明了即使在测试阶段没有邻接信息,该模型仍然可以达到与最先进模型相媲美甚至更好的性能。
Jun, 2021
采用线性图神经网络(TrainlessGNN)模型构建代表每个类别节点属性子空间的权重矩阵,为 TAG 上的半监督节点分类提供了一种高效的方法,消除了迭代优化过程。广泛的实验证实了我们的无训练模型可以匹配甚至超越传统训练模型,展示了在特定配置中避免梯度下降的可能性。
Apr, 2024
本论文介绍了一种将分布式图信号运用于图神经网络中、以提高 GNN 在半监督节点分类中性能的正则化方法。通过数值实验发现,该方法能够显著改善不同问题设置下大多数基本 GNN 模型的性能。
Apr, 2023
本文提出了一种基于 Graph Neural Networks 和 graph few-shot learning 算法的半监督节点分类方法,通过传递先前学习的辅助图中的结构知识来改进目标图上的分类精度,并在四个真实世界图数据集上的实验和消融研究中证明了该模型的有效性。
Oct, 2019
本文提出了基于邻近差异率(NDR)的自适应差异保留(ADR)正则化器以加强知识的传递,进而提出了一种基于 GNN-SD 框架的通用图神经网络知识蒸馏方法,它在减少训练成本的同时实现了领先的蒸馏效果,并为多种流行的骨干网路提供了一致有效的性能增强。
Nov, 2020
本文研究了 GNNs 在对称标签噪声下的鲁棒性,将非线性神经信息传递模型(例如图同构网络,GraphSAGE 等)与损失校正方法相结合,提出了一种容忍噪声的方法来解决图分类任务,在人工对称嘈杂环境中可以提高测试准确性。
May, 2019
本论文针对在文本图上学习有效节点表示的问题,提出了一种使用语言模型编码图文本信息的图神经网络和知识蒸馏机制,能够在无图情况下实现快速推理,实验结果表明,该方法在节点分类任务上具有显著优势。
Apr, 2023
通过使用一种特殊设计的学生模型(Routing-by-Memory)来解决节点分类任务中的性能问题,该模型是一种专家混合(Mixture-of-Experts),通过鼓励每个专家在隐藏表示空间的某个特定区域进行专门化,实验证明可以在多个数据集上实现更一致的性能。
Jun, 2024