无监督图对比学习中的结构和语义全局知识获取
本论文提出了一个自监督的图神经网络预训练框架Graph Contrastive Coding(GCC),通过子图实例区分学习网络的建构,利用对比学习增强图神经网络的内在和可迁移的结构表现,并在十个图数据集上展开实验,结果表明,GCC对于包括节点分类、相似性搜索和图分类等三个图学习任务,展现出与特定任务和从零开始训练的对应模型相竞争的性能,同时显示了预训练和微调范式在图表示学习中有很大的潜力。
Jun, 2020
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出了一种利用Graph Contrastive Learning无人工标注学习图形表示的新范式,并通过对一系列基准任务和各种领域的数据集进行广泛、可控的实验,研究不同的GCL组件之间的相互作用,得出了一套有效GCL的一般特性与实现技巧。
Sep, 2021
本文提出了一个名为 GCL-GE 的指标来衡量图对比学习GCL的一般化能力,并通过信息理论的角度理论上证明了一个互信息的上界。基于这个证明,我们设计了一个名为InfoAdv的GCL框架,该框架具有增强的一般化能力,在预训练任务适配和下游任务的一般化能力之间取得了平衡,并在各种基准测试中取得了最先进的性能。
Nov, 2022
本文提出了一种新的细粒度语义增强的图对比学习方法(FSGCL),采用基于图形的结构构造,提取具有不同语义的图形,并从模型训练的角度进一步增强对细粒度语义的利用。实验表明,相对于现有的方法,所提出的 FSGCL 方法具有更好的性能。
Apr, 2023
我们提出了一种局部结构感知的图对比学习方法 (LS-GCL),用于从多个视角建模节点的结构信息,并且通过多层对比损失函数来优化模型,实验结果表明我们的方法在节点分类和链接预测任务上均优于最先进的图表示学习方法。
Aug, 2023
用图对比学习的框架,我们提出了一种多节点中心子图对比表示学习方法,以自我监督的方式学习图中节点的表示,通过对中心节点的一系列节点中心区域子图进行精心设计,通过对同一节点的不同子图之间的互信息进行对比损失的最大化来实现。对各种真实世界数据集和不同下游任务的实验证明,我们的模型取得了最先进的结果。
Aug, 2023
通过提出节点紧凑度作为度量,证明了基于图对比学习在训练过程中存在不平衡问题,并推导了节点紧凑度的理论形式,提出了一种能够更好地遵循基于图对比学习原则的 PrOvable Training (POT) 方法,在多个基准测试中持续提升了现有的基于图对比学习方法。
Sep, 2023
本研究针对现有图神经网络模型在缺乏标注数据的实际应用中的局限性,提出了一种新的图表示嵌入方法GRE2-MDCL。该方法采用三重网络架构和多头注意力GNN,结合SVD和LAGNN技术进行图输入的全局和局部增强,并构建多维对比损失以优化模型。实验结果表明,GRE2-MDCL在多个基准数据集上实现了最先进的性能,显著提升了图结构捕捉的准确性。
Sep, 2024