简洁且非对称的图形对比学习无需数据增强
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出了一个名为JOint Augmentation Optimization(JOAO)的自动、适应性和动态的数据增强选择方法,该方法允许在特定的图形数据上执行图形对比学习(GraphCL),并证明该方法性能良好。
Jun, 2021
本文提出了一种利用Graph Contrastive Learning无人工标注学习图形表示的新范式,并通过对一系列基准任务和各种领域的数据集进行广泛、可控的实验,研究不同的GCL组件之间的相互作用,得出了一套有效GCL的一般特性与实现技巧。
Sep, 2021
本研究利用自监督学习的方法,在图形学习中,通过数据生成学习可学习的连续先验,并利用信息最小化和信息瓶颈原则对学习的先验进行规范化,用于构建双层优化框架,并在小规模和大规模图表上展示了比同类方法更好的学习效果。
Jan, 2022
提出了一种不需要数据增强的简单的图对比学习框架 SimGRACE,利用编码器扰动而不需要手动实验或昂贵的领域知识。此外,通过敌对训练 AT-SimGRACE,可以提高学习的鲁棒性并在一定程度上保持高效。
Feb, 2022
本研究提出了一个简单而有效的方法,即FastGCL,它针对图形神经网络的特征(如邻域聚合)构建加权聚合和非聚合邻域信息作为正负样本,通过识别数据的潜在语义信息来快速训练和收敛,从而在节点分类和图分类任务中具有竞争性的分类性能和显着的训练加速。
May, 2022
本文提出了一种新的图形无监督学习方法,名为 Graph Soft-Contrastive Learning (GSCL),它能够通过邻域排序进行自我监督学习,而无需依赖于二元对比设置,并且还提出了 GSCL 所需的成对和列表式门控排名 infoNCE 损失函数,以保留邻域中的相对排序关系。
Sep, 2022
通过提出节点紧凑度作为度量,证明了基于图对比学习在训练过程中存在不平衡问题,并推导了节点紧凑度的理论形式,提出了一种能够更好地遵循基于图对比学习原则的 PrOvable Training (POT) 方法,在多个基准测试中持续提升了现有的基于图对比学习方法。
Sep, 2023
对比学习在图学习领域吸引了大量研究兴趣,现有的图对比学习方法需要大规模和多样化的负样本来确保嵌入的质量,但这样会引入虚假的负样本,同时增加了计算负担和时间复杂度,为解决这些问题,提出了一种简单而有效的模型GraphRank,通过引入基于排名的学习来测量相似度得分,成功地缓解了虚假负样本问题,并将时间复杂度从O(N^2)降低到O(N),并在多个图任务上展开了广泛实验,证明GraphRank在各种任务中表现优异。
Oct, 2023