通过自监督对比学习实现属性缺失图的特征插值
我们提出了一种更通用的无监督图补全学习(UGCL)框架,借助自监督学习来改善现有的 GNN 变体在具有特征和结构缺失的图上的任务性能。我们通过将特征重建和结构重建分离,并依次设计其个性化模型来避免 GNN 消息传递过程中缺失节点特征和结构之间的不匹配。然后,引入了在结构级别和特征级别上的双对比损失,以最大化通过特征重建和结构重建路径得到的节点表示的互信息,从而提供更多的监督信号。最后,重建的节点特征和结构可以应用于下游节点分类任务。我们在八个数据集、三种 GNN 变体和五种缺失率上进行了大量实验证明了我们提出方法的有效性。
Sep, 2023
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出了一种基于对抗性图增强策略的自监督学习框架 adversarial-GCL,解决了传统图对比学习方法捕获冗余图特征的问题,实验证明该方法在无监督、迁移和半监督学习任务中均可达到较好的性能。
Jun, 2021
本文提出了一种相似性保持的对抗性图对比学习框架 (SP-AGCL),以对抗攻击进行鲁棒性研究,对比干净的图与两个性质不同的辅助视图 (即节点相似性保持视图和对抗视图),并通过实验证实了 SP-AGCL 在多个下游任务中的竞争性能和在多种场景下的有效性。
Jun, 2023
本研究提出了一个简单而有效的方法,即 FastGCL,它针对图形神经网络的特征(如邻域聚合)构建加权聚合和非聚合邻域信息作为正负样本,通过识别数据的潜在语义信息来快速训练和收敛,从而在节点分类和图分类任务中具有竞争性的分类性能和显着的训练加速。
May, 2022
本研究通过语言监督来改善视图生成,介绍了 GAugLLM 框架,利用先进的大型语言模型(如 Mistral)增强自监督图学习,通过混合提示专家技术生成增强的节点特征,以及协作边修饰器来增强边的生成。实验结果表明,该框架可以作为插件工具增强领先的对比方法的性能,同时也能增强标准生成方法和流行的图神经网络的性能。
Jun, 2024
提出了一种名为 GraphAug 的原则性框架,该框架引入了一个强大的数据增强器,生成去噪的自监督信号,增强推荐系统的性能。该框架通过自适应地调整对比视图生成,自动地提炼信息丰富的自监督信息。通过对真实数据集的严格实验评估,得出 GraphAug 模型相对于现有基线方法的卓越性能。
Mar, 2024
本研究提出了一种图形比较学习 (GraphCL) 框架,通过图形增强等多种方式对图形数据进行无监督学习来学习表示。结果表明,即使不使用复杂的 GNN 架构,GraphCL 框架也可以生成类似或更好的通用性、可转移性和鲁棒性的图形表示。
Oct, 2020
提出了一种新的基于 Group Discrimination 的方法 Graph Group Discrimination (GGD),以简单的二元交叉熵损失代替相似性计算直接区分两组节点样本,相比于 GCL 方法,GGD 具有更高的计算效率和更少的训练轮数,并在八个数据集上表现优于现有的自监督方法。
Jun, 2022