序列推荐的图形掩蔽自编码器
通过在理论上构建 GraphMAE 和 GCL 之间的桥梁,我们证明了 GraphMAE 中的节点级重构目标隐含地执行上下文级 GCL,并指出了 GraphMAE 在对齐性和一致性方面的局限性。为了解决这些限制,我们提出了一种增强的对齐一致性图掩码自编码器 AUG-MAE,并通过实验证明了该模型优于现有最先进方法。
Feb, 2024
通过融合图对比掩码自编码器(Graph Contrastive Masked Autoencoder,GCMAE)中的局部边缘特征与全局图结构关系,GCMAE 在节点分类、节点聚类、链接预测和图分类等四个流行的图任务中表现出良好的准确性,与最佳基准线相比,最大准确性提升达到 3.2%。
Oct, 2023
提出了一种名为 GraphAug 的原则性框架,该框架引入了一个强大的数据增强器,生成去噪的自监督信号,增强推荐系统的性能。该框架通过自适应地调整对比视图生成,自动地提炼信息丰富的自监督信息。通过对真实数据集的严格实验评估,得出 GraphAug 模型相对于现有基线方法的卓越性能。
Mar, 2024
本篇研究提出了一种基于图神经网络和图对比学习的协作过滤框架,通过自我监督学习进行自适应增强,实现目的的解耦和噪声抑制,将学习到的解耦表示与全局上下文结合,相比于现有的解决方案,具有更好的性能表现。
May, 2023
本文研究了自监督自编码器在图数据中的表现问题,并提出一种新的自编码器模型用于图形表示学习,该模型包括分层自适应掩蔽机制和可训练的破坏机制,通过在十个基准数据集上的广泛实验,证明了所提出方法相对于现有的图表征学习模型其卓越性。
Jan, 2023
本研究提出了一种图形比较学习 (GraphCL) 框架,通过图形增强等多种方式对图形数据进行无监督学习来学习表示。结果表明,即使不使用复杂的 GNN 架构,GraphCL 框架也可以生成类似或更好的通用性、可转移性和鲁棒性的图形表示。
Oct, 2020
本研究揭示了对比学习的推荐模型是通过学习更均匀分布的用户 / 物品表示隐含地减轻受欢迎程度偏见,并且建议一种可以平滑调整所学表示的均匀性的简单 CL 方法。
Dec, 2021
我们提出了一种基于课程学习的掩模自编码器(CL-MAE),通过不断增加自监督重建任务的复杂性,逐渐提高模型学习更复杂和可转移的表示能力,并使用 Curriculum-Learned Masked Autoencoder (CL-MAE) 在 ImageNet 数据集上进行训练,通过在五个下游任务上的实证结果验证了我们的猜想,展示了课程学习在自监督掩模自编码器中的成功应用。
Aug, 2023
本文提出一种新的自我监督学习(SSL)方法,通过构建序列视图间的对比学习来改进序列推荐问题的效果,为了解决数据稀疏性和噪音问题,提出了三种模型增强方法以构建视图对,实验表明模型增强对于增强 SSL 中的序列推荐任务效果是有效的。
Mar, 2022