基于聚类的图表征学习加速
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
提出了一种新的基于 Group Discrimination 的方法 Graph Group Discrimination (GGD),以简单的二元交叉熵损失代替相似性计算直接区分两组节点样本,相比于 GCL 方法,GGD 具有更高的计算效率和更少的训练轮数,并在八个数据集上表现优于现有的自监督方法。
Jun, 2022
本研究提出了一个简单而有效的方法,即 FastGCL,它针对图形神经网络的特征(如邻域聚合)构建加权聚合和非聚合邻域信息作为正负样本,通过识别数据的潜在语义信息来快速训练和收敛,从而在节点分类和图分类任务中具有竞争性的分类性能和显着的训练加速。
May, 2022
本文提出了一种名为 GraphSC 的新型图自我对比框架,它使用图自身通过图增强函数生成正负样本,并使用 Hilbert-Schmidt 独立准则对表示进行分解并引入掩蔽自我对比机制以更好地区分正负样本,同时通过显式减小锚点和正样本之间的绝对距离来加快收敛,并在无监督和迁移学习设置下与其他 19 种最先进方法进行了广泛实验评估。
Sep, 2023
对比学习在图学习领域吸引了大量研究兴趣,现有的图对比学习方法需要大规模和多样化的负样本来确保嵌入的质量,但这样会引入虚假的负样本,同时增加了计算负担和时间复杂度,为解决这些问题,提出了一种简单而有效的模型 GraphRank,通过引入基于排名的学习来测量相似度得分,成功地缓解了虚假负样本问题,并将时间复杂度从 O (N^2) 降低到 O (N),并在多个图任务上展开了广泛实验,证明 GraphRank 在各种任务中表现优异。
Oct, 2023
局部感知图对比学习 (LACL) 是一种自监督学习框架,通过基于掩膜的建模补充性地捕捉局部图信息,相对于纯粹的对比学习,有效解决了在应用于图数据时过于强调全局模式而忽略局部结构的问题。实验结果验证了 LACL 方法优于当前最先进方法,展示了其作为一种全面的图表示学习器的潜力。
Feb, 2024
本研究提出了一种图形比较学习 (GraphCL) 框架,通过图形增强等多种方式对图形数据进行无监督学习来学习表示。结果表明,即使不使用复杂的 GNN 架构,GraphCL 框架也可以生成类似或更好的通用性、可转移性和鲁棒性的图形表示。
Oct, 2020
为了解决 GCL 方法中的 community semantics 问题,我们提出了一种称为 CSGCL 的 algorithmic framework,并使用两种新的图扩充方法和动态的 'Team-up' 对比学习策略,传播 community strength,实现了对图表示的有效性和通用性的验证。
May, 2023
本文提出了一种新的图形无监督学习方法,名为 Graph Soft-Contrastive Learning (GSCL),它能够通过邻域排序进行自我监督学习,而无需依赖于二元对比设置,并且还提出了 GSCL 所需的成对和列表式门控排名 infoNCE 损失函数,以保留邻域中的相对排序关系。
Sep, 2022