本文提出了一种新的自适应增强方法,通过设计基于节点中心性和节点属性的增强策略来保留图的内在结构和属性信息,并验证此方法在节点分类任务中优于现有方法和监督学习模型。
Oct, 2020
提出了一种名为 GraphAug 的原则性框架,该框架引入了一个强大的数据增强器,生成去噪的自监督信号,增强推荐系统的性能。该框架通过自适应地调整对比视图生成,自动地提炼信息丰富的自监督信息。通过对真实数据集的严格实验评估,得出 GraphAug 模型相对于现有基线方法的卓越性能。
Mar, 2024
本文提出了一种基于对抗性图增强策略的自监督学习框架 adversarial-GCL,解决了传统图对比学习方法捕获冗余图特征的问题,实验证明该方法在无监督、迁移和半监督学习任务中均可达到较好的性能。
Jun, 2021
本研究提出了一种图形比较学习 (GraphCL) 框架,通过图形增强等多种方式对图形数据进行无监督学习来学习表示。结果表明,即使不使用复杂的 GNN 架构,GraphCL 框架也可以生成类似或更好的通用性、可转移性和鲁棒性的图形表示。
本文提出了一种基于 COvariance-preServing feaTure space Augmentation (COSTA) 的图对比学习 (Graph Contrastive Learning) 方法,通过在隐藏特征层面上进行特征增广以学习更有差异性的特征,实验结果表明该方法示整体优于传统的图增广方法。
Jun, 2022
本文提出了一个名为 JOint Augmentation Optimization(JOAO)的自动、适应性和动态的数据增强选择方法,该方法允许在特定的图形数据上执行图形对比学习(GraphCL),并证明该方法性能良好。
本文提出了一种新的基于图形的自监督学习框架 AFGRL,能够为节点分类、聚类和相似性搜索等节点级任务提供更好的性能,而这种方法不需要设计复杂的数据增强技巧。
Dec, 2021
我们引入了一种新颖的基于图对比的图匹配框架(GCGM),利用大量的图扩充进行对比学习,无需任何额外的辅助信息,通过各种实验证实,我们的 GCGM 在各个数据集上超过了最先进的自监督方法,迈向了更有效、高效和通用的图匹配。
Jun, 2024
该论文介绍了使用对比学习(CL)进行无监督图表示学习的方法。作者通过探究使用域不可知图形扩充的高性能图像对比学习和 DAGAs 对图形对比学习的影响,提出了几个检查机制和设计任务感知扩充的策略,以提高模型的准确性。
Nov, 2021
本研究提出了 SelfGNN,它是一种基于对比自监督技术的图神经网络,采用批量标准化和四种图形特征增强技术来实现无监督学习。除了使用常用的图形拓扑增强技术(TA),实验证明我们提出的特征增强(FA)能够与 TA 同样好地发挥作用,而且没有计算开销。在七种公开数据集上的实验结果表明,SelfGNN 表现出较高水平的性能,与 SOTA 监督 GNN 性能相当,并且始终优于 SOTA 半监督和无监督 GNN。
Mar, 2021