通过生成方法探索图表示学习中的任务合并
我们提出了一种名为 GiGaMAE 的新型图掩蔽自编码器框架,通过协同重构信息化和综合的潜在嵌入,从而解决了当前图数据上遇到的推理能力不强的问题。通过将图拓扑和属性信息包含在嵌入中,作为重构目标,我们的模型能够捕捉到更广义和综合的知识,并引入基于互信息的重构损失,使得能够有效重构多个目标,实验结果表明 GiGaMAE 在多个基准测试中表现优于现有基线模型。
Aug, 2023
本文提出了一种新颖的 MGAE 框架,通过对图结构进行随机遮掩边来重构这些缺失的边并利用 GNN 对部分遮掩的图进行传播来训练 MGAE 以达到有效学习图结构数据的目的,并在多个开放数据集上进行了广泛实验,表明 MGAE 在链接预测和节点分类方面总体性能优于最先进的无监督学习竞争对手。
Jan, 2022
Hierarchical Graph Masked AutoEncoders (Hi-GMAE) is a multi-scale framework that addresses the limitations of single-scale Graph Masked Autoencoders (GMAEs) in incorporating hierarchical structures within graphs, resulting in improved performance compared to other self-supervised competitors.
May, 2024
通过在理论上构建 GraphMAE 和 GCL 之间的桥梁,我们证明了 GraphMAE 中的节点级重构目标隐含地执行上下文级 GCL,并指出了 GraphMAE 在对齐性和一致性方面的局限性。为了解决这些限制,我们提出了一种增强的对齐一致性图掩码自编码器 AUG-MAE,并通过实验证明了该模型优于现有最先进方法。
Feb, 2024
本文提出了自监督学习框架 MaskGAE,以 Masked Graph Modeling 为前置任务,证明其可以大大提高自监督学习方案。经过广泛的基准测试,证明了 MaskGAE 在连接预测和节点分类任务上的优越性。
May, 2022
通过采用 UGMAE 方法,在自学习图上进行图遮挡自编码器的统一框架,解决了现有方法中节点重要性不均匀、整体图信息利用不足、表示空间中的语义知识忽视以及遮挡内容过大导致的不稳定问题,实验证明 UGMAE 在多个数据集上的多项任务上优于对比和生成最先进基准模型。
Feb, 2024
提出了一种新的基于图的生成模型,将多个异构学习任务统一到同一框架中,通过将图卷积网络与多个变分自编码器相结合,在不同的任务上嵌入节点,从而成功提高了所有任务的性能,推动了现有先进方法的进步。
Nov, 2019
通过使用硬节点分配将样本图分解为分离子图的系列,并利用软节点分配重新构建原始图结构,该研究提出的层次聚类 GAE(HC-GAE)能够有效提取原始样本图的双向分层结构特征,解决了经典基于卷积的 GAE 中的过度平滑问题。
May, 2024