推荐的监督对比学习
本文提出了一种 Mixed Supervised Graph Contrastive Learning for Recommendation (MixSGCL) 方法,通过将推荐和无监督对比损失的训练整合为一个监督对比学习损失,解决了当前基于图对比学习的推荐系统中优化方向不一致的问题,并通过节点和边的混合使得系统能够从现有的用户 - 物品交互中挖掘更多的直接监督协同过滤信号,从而提高了准确性和效率。
Apr, 2024
本文提出了一种新的图对比学习范式 LightGCL,基于奇异值分解对图的对比增强进行单一约束结构的调整,在推荐系统领域具有显著的性能优势和鲁棒性。
Feb, 2023
本研究提出自我对比学习算法,并将其应用于会话推荐问题中,以优化物品表示空间的均匀度和减少模型复杂度,进而实现比之前的算法更好的预测性能。研究证明,该算法不需要额外的采样和数据增强操作,并在三个基准数据集上得到了统计上显著的性能提升。
Jun, 2023
本文提出一种名为邻域增强对比学习(Neighborhood-enriched Contrastive Learning,简称 NCL)的方法,将邻居嵌入到对比对中,以实现在图协同过滤方法中减少数据稀疏性的效果,并在五个公共数据集上进行广泛的实验证明了该方法的有效性,尤其在 Yelp 和 Amazon-book 数据集上分别获得了 26%和 17%的性能提升。
Feb, 2022
我们提出的 Neighborhood-Enhanced Supervised Contrastive Loss (NESCL) 模型在三个真实数据集上, Yelp2018、Gowalla 和 Amazon-Book,相较于原始的 SGL 模型,在 NDCG@20 上分别提升了 10.09%、7.09% 和 35.36%。
Feb, 2024
提出了一种名为 Bilateral Unsymmetrical Graph Contrastive Learning(BusGCL)的新框架,该框架考虑了用户 - 物品节点关系密度的双侧不对称性,通过双侧切片对比训练更好地推理用户和物品图,并使用超图卷积网络(GCN)生成的嵌入来挖掘隐含相似性,该方法在推荐任务中表现出优越性。
Mar, 2024
通过利用自我监督的推荐算法,本文提出了一种名为 RecDCL 的方法,它采用对比学习,解决了数据稀疏性和特征维度的问题,并在推荐任务中取得了优于现有模型的效果。
Jan, 2024
本文提出一种半监督对比学习 (Semi-supervised Contrastive Learning,简称 SsCL) 的训练策略,将自监督学习中著名的对比损失与半监督学习中的交叉熵损失相结合,进而联合优化两个目标,并使用神经网络来实现。结果表明,SsCL 产生了更具有区分性的表示,并对于少样本学习非常有益。在使用 ResNet50 作为后端的 ImageNet 数据集上,SsCL 分别以 1% 和 10% 的标记样本获得了 60.2% 和 72.1% 的 top-1 精度,这比基线要好得多,也优于以前的半监督学习和自监督学习方法。
May, 2021
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出了一种新的图形无监督学习方法,名为 Graph Soft-Contrastive Learning (GSCL),它能够通过邻域排序进行自我监督学习,而无需依赖于二元对比设置,并且还提出了 GSCL 所需的成对和列表式门控排名 infoNCE 损失函数,以保留邻域中的相对排序关系。
Sep, 2022