GraphMAE2: 一个集解码增强的掩码自监督图学习器
本文提出了一种名为 HGMAE 的新型异构图蒙版自编码器模型,通过创新的掩膜技术和独特的训练策略,解决了捕捉复杂图结构、结合各种节点属性和编码不同节点位置等异构图学习面临的挑战,并在多个数据集上的多项任务中优于现有的对比和生成基线。
Aug, 2022
本文提出了一种新颖的 MGAE 框架,通过对图结构进行随机遮掩边来重构这些缺失的边并利用 GNN 对部分遮掩的图进行传播来训练 MGAE 以达到有效学习图结构数据的目的,并在多个开放数据集上进行了广泛实验,表明 MGAE 在链接预测和节点分类方面总体性能优于最先进的无监督学习竞争对手。
Jan, 2022
通过在理论上构建 GraphMAE 和 GCL 之间的桥梁,我们证明了 GraphMAE 中的节点级重构目标隐含地执行上下文级 GCL,并指出了 GraphMAE 在对齐性和一致性方面的局限性。为了解决这些限制,我们提出了一种增强的对齐一致性图掩码自编码器 AUG-MAE,并通过实验证明了该模型优于现有最先进方法。
Feb, 2024
本文提出了一种新的自监督图形预训练方法 RARE,它在高阶潜在特征空间中进一步掩蔽和重构节点样本以提高推断掩蔽数据的确定性和自监督机制的可靠性,并采用的联合掩蔽 - 重构策略可以在潜在特征和原始数据空间中产生改进的稳定性和性能,在 17 个数据集上的大量实验中验证了 RARE 的有效性和鲁棒性。
Apr, 2023
通过融合图对比掩码自编码器(Graph Contrastive Masked Autoencoder,GCMAE)中的局部边缘特征与全局图结构关系,GCMAE 在节点分类、节点聚类、链接预测和图分类等四个流行的图任务中表现出良好的准确性,与最佳基准线相比,最大准确性提升达到 3.2%。
Oct, 2023
我们提出了一种名为 GiGaMAE 的新型图掩蔽自编码器框架,通过协同重构信息化和综合的潜在嵌入,从而解决了当前图数据上遇到的推理能力不强的问题。通过将图拓扑和属性信息包含在嵌入中,作为重构目标,我们的模型能够捕捉到更广义和综合的知识,并引入基于互信息的重构损失,使得能够有效重构多个目标,实验结果表明 GiGaMAE 在多个基准测试中表现优于现有基线模型。
Aug, 2023
本文提出了自监督学习框架 MaskGAE,以 Masked Graph Modeling 为前置任务,证明其可以大大提高自监督学习方案。经过广泛的基准测试,证明了 MaskGAE 在连接预测和节点分类任务上的优越性。
May, 2022
通过采用 UGMAE 方法,在自学习图上进行图遮挡自编码器的统一框架,解决了现有方法中节点重要性不均匀、整体图信息利用不足、表示空间中的语义知识忽视以及遮挡内容过大导致的不稳定问题,实验证明 UGMAE 在多个数据集上的多项任务上优于对比和生成最先进基准模型。
Feb, 2024
本文是针对掩膜自编码器在自监督学习中扮演的角色所做的综述,着重于介绍其在视觉模式识别领域中的应用,包括历史发展、最新进展以及对各种应用的影响。
Jul, 2022