自监督掩码图自编码器
本文提出了一种基于掩蔽自监督学习框架 GraphMAE2,利用多视角随机重新覆盖解码策略和潜在表示预测策略,并通过广泛的实验表明其在各种公共数据集上始终产生顶级结果。
Apr, 2023
本文提出了一种名为 HGMAE 的新型异构图蒙版自编码器模型,通过创新的掩膜技术和独特的训练策略,解决了捕捉复杂图结构、结合各种节点属性和编码不同节点位置等异构图学习面临的挑战,并在多个数据集上的多项任务中优于现有的对比和生成基线。
Aug, 2022
本文提出了一种新颖的 MGAE 框架,通过对图结构进行随机遮掩边来重构这些缺失的边并利用 GNN 对部分遮掩的图进行传播来训练 MGAE 以达到有效学习图结构数据的目的,并在多个开放数据集上进行了广泛实验,表明 MGAE 在链接预测和节点分类方面总体性能优于最先进的无监督学习竞争对手。
Jan, 2022
本文是针对掩膜自编码器在自监督学习中扮演的角色所做的综述,着重于介绍其在视觉模式识别领域中的应用,包括历史发展、最新进展以及对各种应用的影响。
Jul, 2022
通过在理论上构建 GraphMAE 和 GCL 之间的桥梁,我们证明了 GraphMAE 中的节点级重构目标隐含地执行上下文级 GCL,并指出了 GraphMAE 在对齐性和一致性方面的局限性。为了解决这些限制,我们提出了一种增强的对齐一致性图掩码自编码器 AUG-MAE,并通过实验证明了该模型优于现有最先进方法。
Feb, 2024
通过融合图对比掩码自编码器(Graph Contrastive Masked Autoencoder,GCMAE)中的局部边缘特征与全局图结构关系,GCMAE 在节点分类、节点聚类、链接预测和图分类等四个流行的图任务中表现出良好的准确性,与最佳基准线相比,最大准确性提升达到 3.2%。
Oct, 2023
本文提出了自监督学习框架 MaskGAE,以 Masked Graph Modeling 为前置任务,证明其可以大大提高自监督学习方案。经过广泛的基准测试,证明了 MaskGAE 在连接预测和节点分类任务上的优越性。
May, 2022
本文提出了一种新的自监督图形预训练方法 RARE,它在高阶潜在特征空间中进一步掩蔽和重构节点样本以提高推断掩蔽数据的确定性和自监督机制的可靠性,并采用的联合掩蔽 - 重构策略可以在潜在特征和原始数据空间中产生改进的稳定性和性能,在 17 个数据集上的大量实验中验证了 RARE 的有效性和鲁棒性。
Apr, 2023
通过将 Masked Auto-Encoder(MAE)作为一个统一的、与模态无关的自监督学习框架,通过元学习对其进行解读,并从统一提高其在不同模态下的自监督学习的动机出发,我们提出了 MetaMAE。我们的关键思想是将 MAE 的掩码重构视为元学习任务,并通过未掩码标记的变换器元学习的涉及来预测掩码令牌。基于这个新颖的解读,我们提出了集成两种先进的元学习技术的方法。首先,我们使用基于梯度的元学习来适应变换器编码器的平均潜在因素以增强重构。然后,我们通过任务对比学习来最大化平均化和适应化潜在因素之间的对齐,从而指导变换器编码器更好地编码任务特定的知识。我们的实验证明了 MetaMAE 在与模态无关的自监督学习基准(称为 DABS)中的优越性,明显优于之前的基线。
Oct, 2023
我们提出了一种名为 GiGaMAE 的新型图掩蔽自编码器框架,通过协同重构信息化和综合的潜在嵌入,从而解决了当前图数据上遇到的推理能力不强的问题。通过将图拓扑和属性信息包含在嵌入中,作为重构目标,我们的模型能够捕捉到更广义和综合的知识,并引入基于互信息的重构损失,使得能够有效重构多个目标,实验结果表明 GiGaMAE 在多个基准测试中表现优于现有基线模型。
Aug, 2023