通过预测输入的替代增强方式,Bootstrapped Graph Latents (BGRL) 提供了一种学习图表达的方法,仅使用简单增强即可同时解决负样本对比和昂贵成本问题,从而在几个基准测试中胜过或匹配之前的方法,并在内存成本方面实现了 2-10 倍的减少。
Feb, 2021
本文提出了一种名为 GraphSC 的新型图自我对比框架,它使用图自身通过图增强函数生成正负样本,并使用 Hilbert-Schmidt 独立准则对表示进行分解并引入掩蔽自我对比机制以更好地区分正负样本,同时通过显式减小锚点和正样本之间的绝对距离来加快收敛,并在无监督和迁移学习设置下与其他 19 种最先进方法进行了广泛实验评估。
Sep, 2023
提出了一种新的基于 Group Discrimination 的方法 Graph Group Discrimination (GGD),以简单的二元交叉熵损失代替相似性计算直接区分两组节点样本,相比于 GCL 方法,GGD 具有更高的计算效率和更少的训练轮数,并在八个数据集上表现优于现有的自监督方法。
Jun, 2022
对比学习在图学习领域吸引了大量研究兴趣,现有的图对比学习方法需要大规模和多样化的负样本来确保嵌入的质量,但这样会引入虚假的负样本,同时增加了计算负担和时间复杂度,为解决这些问题,提出了一种简单而有效的模型 GraphRank,通过引入基于排名的学习来测量相似度得分,成功地缓解了虚假负样本问题,并将时间复杂度从 O (N^2) 降低到 O (N),并在多个图任务上展开了广泛实验,证明 GraphRank 在各种任务中表现优异。
Oct, 2023
本文介绍了一种平滑图对比学习模型(SGCL),它利用了扩充图的几何结构来在对比损失中注入与正负节点对相关的接近信息,从而显著规范化学习过程,并通过针对负样本的三种不同平滑技术调整对比损失中节点对的惩罚,以提高在大规模图上的可扩展性,通过在各种基准测试中的大量实验证明了该框架相对于最近的基准方法的优越性。
Feb, 2024
本文提出了一种名为基于子图网络的对比学习的新框架,用于挖掘子结构与图表征之间的相互作用,可提高图像的非监督和迁移学习性能。
Jun, 2023
局部感知图对比学习 (LACL) 是一种自监督学习框架,通过基于掩膜的建模补充性地捕捉局部图信息,相对于纯粹的对比学习,有效解决了在应用于图数据时过于强调全局模式而忽略局部结构的问题。实验结果验证了 LACL 方法优于当前最先进方法,展示了其作为一种全面的图表示学习器的潜力。
本文提出了一种利用 Graph Contrastive Learning 无人工标注学习图形表示的新范式,并通过对一系列基准任务和各种领域的数据集进行广泛、可控的实验,研究不同的 GCL 组件之间的相互作用,得出了一套有效 GCL 的一般特性与实现技巧。
Sep, 2021
本研究提出了一个简单而有效的方法,即 FastGCL,它针对图形神经网络的特征(如邻域聚合)构建加权聚合和非聚合邻域信息作为正负样本,通过识别数据的潜在语义信息来快速训练和收敛,从而在节点分类和图分类任务中具有竞争性的分类性能和显着的训练加速。
May, 2022
本文提出了一种基于对抗性图增强策略的自监督学习框架 adversarial-GCL,解决了传统图对比学习方法捕获冗余图特征的问题,实验证明该方法在无监督、迁移和半监督学习任务中均可达到较好的性能。
Jun, 2021