可扩展自监督图表征学习的子图对比
本研究提出了一种基于自适应子图生成对比学习框架,可以通过捕捉图的内在结构来生成对比样本,并同时根据子图的特征和结构来区分样本,以最优运输距离作为子图之间的相似度度量。通过在基准数据集上进行广泛的节点分类实验,验证了该图对比学习方法的有效性。
Jul, 2022
用图对比学习的框架,我们提出了一种多节点中心子图对比表示学习方法,以自我监督的方式学习图中节点的表示,通过对中心节点的一系列节点中心区域子图进行精心设计,通过对同一节点的不同子图之间的互信息进行对比损失的最大化来实现。对各种真实世界数据集和不同下游任务的实验证明,我们的模型取得了最先进的结果。
Aug, 2023
通过对子图取样,在不同尺度上生成全局和局部视图,并根据它们的语义关联构建多种对比关系,以提供更丰富的自监督信号,从而实现对细粒度语义信息的表征。在八个图分类现实世界数据集上进行的大量实验和参数分析充分证明了该方法的有效性。
Mar, 2024
本文提出了一种自监督学习方法,使用子图增强图级表示,设计了三种信息聚合器:attribute-conv,layer-conv 和 subgraph-conv 以从不同方面收集信息,并提出了头尾对比构建以提供丰富的负样本。在多个基准测试中,结果显示出了新的无监督状态下的最先进的结果,并在半监督学习任务上对其进行了公平比较。
Mar, 2021
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
利用子图构建长距离依赖关系来改善低数据环境下节点分类的性能,并提出了一种名为 Muse 的自监督学习框架,通过联合捕获局部结构和长距离依赖关系,提高了图中节点的表示表达能力。
Apr, 2024
通过学习图模式 (Motif),对大型图数据库进行 GNN 预处理,进而利用学习到的模式采样更多信息化的子图,通过对子图的对比学习预训练 GNN,使其性能在多个基准数据集中平均提高了 2.04% 的 ROC-AUC。
Dec, 2020
本文提出了一种用于学习节点表征的自监督方法,通过改进 Siamese 自蒸馏方法和多尺度对比度学习,构建局部和全局两种视图,并采用交叉网络和交换视角两个目标,最大化不同视图和网络的节点表征之间的一致性,该方法在五个真实数据集上实验,不仅取得了新的最优结果,而且优于一些半监督方法。
May, 2021
本文提出了一种名为 GraphSC 的新型图自我对比框架,它使用图自身通过图增强函数生成正负样本,并使用 Hilbert-Schmidt 独立准则对表示进行分解并引入掩蔽自我对比机制以更好地区分正负样本,同时通过显式减小锚点和正样本之间的绝对距离来加快收敛,并在无监督和迁移学习设置下与其他 19 种最先进方法进行了广泛实验评估。
Sep, 2023