面向基于图的半监督学习的伪对比学习
本论文提出了一个自监督的图神经网络预训练框架Graph Contrastive Coding(GCC),通过子图实例区分学习网络的建构,利用对比学习增强图神经网络的内在和可迁移的结构表现,并在十个图数据集上展开实验,结果表明,GCC对于包括节点分类、相似性搜索和图分类等三个图学习任务,展现出与特定任务和从零开始训练的对应模型相竞争的性能,同时显示了预训练和微调范式在图表示学习中有很大的潜力。
Jun, 2020
该研究通过节约和邻居嵌入、高阶邻居和中间表示的结合,设计出一种草图神经网络(H2GCN),并通过实验表明其在半监督节点分类任务下,具有比传统模型更高的预测准确率,尤其对于异质性网络(即一对连接的节点可能具有不同的类别标签和不同的特征)表现更出色。
Jun, 2020
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出了一种新颖的基于图卷积网络的 SSL 算法,通过利用数据相似性和图结构来丰富监督信号,从而改善了现有方法的性能。该算法通过设计半监督对比损失和图生成损失提取潜在的关系,并在各种实际数据集上取得了显著的分类性能,与现有最先进的方法进行了比较。
Sep, 2020
本研究提出了SelfGNN,它是一种基于对比自监督技术的图神经网络,采用批量标准化和四种图形特征增强技术来实现无监督学习。除了使用常用的图形拓扑增强技术(TA),实验证明我们提出的特征增强(FA)能够与TA同样好地发挥作用,而且没有计算开销。在七种公开数据集上的实验结果表明,SelfGNN表现出较高水平的性能,与SOTA监督GNN性能相当,并且始终优于SOTA半监督和无监督GNN。
Mar, 2021
本研究提出了一种新的信息伪标签框架(InfoGNN),以最大化互信息为基础,通过伪标签化最具信息代表性的节点来促进使用极少数标记的GNN的学习。同时,也提出了一个广义交叉熵损失函数,并使用类平衡正则化来解决潜在的标签噪音和类不平衡问题。实验证明,该方法在六个真实图数据集上显著优于基线和强自监督方法。
Jan, 2022
本文提出了一种基于结构和语义对比学习算法框架的简单神经网络-S^3-CL,用于在无监督情况下学习表达具有全局结构和语义的节点特征,通过实验表明与现有的基于GNN的无监督GCL方法相比,S^3-CL在不同的下游任务上可以获得优异的表现。
Feb, 2022
通过提出节点紧凑度作为度量,证明了基于图对比学习在训练过程中存在不平衡问题,并推导了节点紧凑度的理论形式,提出了一种能够更好地遵循基于图对比学习原则的 PrOvable Training (POT) 方法,在多个基准测试中持续提升了现有的基于图对比学习方法。
Sep, 2023
对比学习在图学习领域吸引了大量研究兴趣,现有的图对比学习方法需要大规模和多样化的负样本来确保嵌入的质量,但这样会引入虚假的负样本,同时增加了计算负担和时间复杂度,为解决这些问题,提出了一种简单而有效的模型GraphRank,通过引入基于排名的学习来测量相似度得分,成功地缓解了虚假负样本问题,并将时间复杂度从O(N^2)降低到O(N),并在多个图任务上展开了广泛实验,证明GraphRank在各种任务中表现优异。
Oct, 2023
通过考虑相邻节点的非对称视图,本文提出了一种简单的算法——用于图的非对称对比学习(GraphACL),它不依赖图扩充和同质性假设,在同质性和异质性图上具有优于最新的图对比学习和自监督学习方法的性能。
Oct, 2023