本文旨在探究无监督自我监督学习在图神经网络中的应用,通过多个实验任务深入理解SSL在GNNs中的表现,研究了该方法何时、为什么以及哪些策略下的效果最佳,提出了新的SelfTask方向来创建先进的预训练任务,并在各种真实世界数据集上实现了最先进的性能。
Jun, 2020
通过实验证明,在许多标准的节点分类基准测试中,结合忽略图结构的浅层模型和利用标签结构相关性的两个简单的后处理步骤可以比GNN在性能上优秀或者与之匹配,同时仅需使用一小部分GNN的参数并拥有更快的运行时间。
Oct, 2020
本论文介绍了自监督学习在图神经网络上的应用,将其方法分为对比模型和预测模型并提供统一的框架,在 SSL 方法和数据集上提供了概述和标准化的测试平台。
Feb, 2021
本文提出了一种抵抗标签噪声的新型图神经网络,通过链接具有高特征相似性的未标记节点和已标记节点以及精确的伪标签来提高半监督节点分类的准确性,并在真实数据集上进行了广泛的实验研究。
Jun, 2021
该研究提出了一种名为 GraFN 的半监督方法来解决使用少量标记节点的图节点分类问题,它既结合了自监督方法的性能优势,又能够实现类别之间的节点区分。
Apr, 2022
该论文提出了一种Pseudo Contrastive Learning (PCL) 的通用框架,该框架通过生成可靠的对比对来解决生成高质量伪标签的问题,通过对负样本进行dropout来实现数据增强。 最终,实验证明该方法在五个真实世界的图上均优于其他普遍技术。
Feb, 2023
通过softmax分布中的Wasserstein距离推断数据集中的隐藏图结构信息,分析节点标签的不均匀性的变化以增强模型性能,针对一些基准模型进行实验验证达到提高模型性能的目的。
Apr, 2023
通过实验发现,如果通过不重叠的部分标签选择伪标签,并将其定义为负节点对关系,则伪标签的准确性更高。因此,通过伪标签和部分标签的提取构建负边,生成一个带有高准确性伪标签信息的有向图,有效地辅助了图神经网络在消息传递层的学习,提供了第二个问题的解决方案。在几个基准数据集上的链路预测和节点分类任务的实证结果表明了我们方法的有效性,并取得了最先进的性能。
Oct, 2023
提出了一种新颖的分布一致图自训练(DC-GST)框架,通过显式地解决自训练过程中扩展训练集与测试集之间的分布差异,识别既具有信息量又能弥补分布差异的伪标记节点,并通过可微分的优化任务进行建模。采用了考虑分布差异的边预测器来增强图,提高模型在分配伪标签上的泛化能力。在四个公开基准数据集上进行了评估,并广泛实验证明,该框架始终优于最先进的基线模型。
Jan, 2024
该研究针对图神经网络(GNNs)在噪声和稀疏标签存在下的半监督节点分类性能下降的问题,提出了一种新颖的GNN-CFGD方法。该方法通过粗细划分及图重构减少噪声标签的负面影响,连接无标签节点与干净标签节点,显著提升了模型在真实世界场景中的有效性和鲁棒性。
Nov, 2024