基于局部结构的图形对比表示学习
本论文提出了一个自监督的图神经网络预训练框架Graph Contrastive Coding(GCC),通过子图实例区分学习网络的建构,利用对比学习增强图神经网络的内在和可迁移的结构表现,并在十个图数据集上展开实验,结果表明,GCC对于包括节点分类、相似性搜索和图分类等三个图学习任务,展现出与特定任务和从零开始训练的对应模型相竞争的性能,同时显示了预训练和微调范式在图表示学习中有很大的潜力。
Jun, 2020
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出了一种利用Graph Contrastive Learning无人工标注学习图形表示的新范式,并通过对一系列基准任务和各种领域的数据集进行广泛、可控的实验,研究不同的GCL组件之间的相互作用,得出了一套有效GCL的一般特性与实现技巧。
Sep, 2021
本文提出了一种基于结构和语义对比学习算法框架的简单神经网络-S^3-CL,用于在无监督情况下学习表达具有全局结构和语义的节点特征,通过实验表明与现有的基于GNN的无监督GCL方法相比,S^3-CL在不同的下游任务上可以获得优异的表现。
Feb, 2022
通过提出节点紧凑度作为度量,证明了基于图对比学习在训练过程中存在不平衡问题,并推导了节点紧凑度的理论形式,提出了一种能够更好地遵循基于图对比学习原则的 PrOvable Training (POT) 方法,在多个基准测试中持续提升了现有的基于图对比学习方法。
Sep, 2023
我们提出了一种新颖而稳健的图神经网络编码器,低秩图对比学习(LR-GCL),并通过低秩正则化方法进行原型对比学习训练,然后使用LR-GCL生成的特征进行线性传导分类算法来对图中的未标记节点进行分类。我们的方法受到图数据和标签的低频属性以及我们对传导学习的尖锐一般化界限的理论动机,是在图对比学习中低秩学习优势在理论上得到证明的第一批理论结果之一。广泛的公共基准实验表明了LR-GCL的卓越性能和所学节点表示的鲁棒性。
Feb, 2024
局部感知图对比学习 (LACL) 是一种自监督学习框架,通过基于掩膜的建模补充性地捕捉局部图信息,相对于纯粹的对比学习,有效解决了在应用于图数据时过于强调全局模式而忽略局部结构的问题。实验结果验证了 LACL 方法优于当前最先进方法,展示了其作为一种全面的图表示学习器的潜力。
Feb, 2024
本文提出了一种名为双视角跨图对比学习(DC-GCL)的创新框架,通过增强正样本多样性和可靠性,提供了更多样化和可靠的训练输入,相较于传统的图对比学习方法,DC-GCL能够在各种基准测试和任务中显著提高性能。
Jun, 2024
本研究针对现有图神经网络模型在缺乏标注数据的实际应用中的局限性,提出了一种新的图表示嵌入方法GRE2-MDCL。该方法采用三重网络架构和多头注意力GNN,结合SVD和LAGNN技术进行图输入的全局和局部增强,并构建多维对比损失以优化模型。实验结果表明,GRE2-MDCL在多个基准数据集上实现了最先进的性能,显著提升了图结构捕捉的准确性。
Sep, 2024