本研究提出自我对比学习算法,并将其应用于会话推荐问题中,以优化物品表示空间的均匀度和减少模型复杂度,进而实现比之前的算法更好的预测性能。研究证明,该算法不需要额外的采样和数据增强操作,并在三个基准数据集上得到了统计上显著的性能提升。
Jun, 2023
这篇论文提出一种名为 SCL 的学习范式,支持图卷积神经网络,同时加入了数据预处理过程中节点之间的相似度计算和节点复制的数据增强方法,经实验证明可以提高推荐准确度和抗干扰能力。
Jan, 2022
我们提出了一种新颖的对比学习方法,叫做反应扩散图对比学习模型 (RDGCL),用于改进推荐系统的准确度和多样性。我们的方法结合了对比学习、图卷积网络和协同过滤技术,通过设计我们自己的图卷积网络以及扩散和反应方程,在推荐系统中实现了反应和扩散嵌入之间的对比学习,从而不需要图数据增强。在 6 个基准数据集上的实验评估表明,我们的方法优于目前最先进的基于对比学习的推荐模型。
Dec, 2023
提出了一种用于顺序推荐的对比学习多任务模型 CL4SRec,在传统的下一个项目预测任务的基础上,从原始用户行为序列中提取更有意义的用户模式,并进一步有效地编码用户表示,通过构建自我监督信号和数据增强等手段,来解决数据稀疏性和参数优化问题,并在四个公共数据集上实现了业界领先的性能。
Oct, 2020
本文提出了一种 Mixed Supervised Graph Contrastive Learning for Recommendation (MixSGCL) 方法,通过将推荐和无监督对比损失的训练整合为一个监督对比学习损失,解决了当前基于图对比学习的推荐系统中优化方向不一致的问题,并通过节点和边的混合使得系统能够从现有的用户 - 物品交互中挖掘更多的直接监督协同过滤信号,从而提高了准确性和效率。
Apr, 2024
本文提出了解决自监督对比学习中的批处理大小等参数问题的一种简单有效的基准方法(DCL),并对其进行了在多种基准测试中的复现和实时检验,最终实现了较少受亚优化超参数影响且性能不错的对比学习方法。
Oct, 2021
本文提出了一种新的图对比学习范式 LightGCL,基于奇异值分解对图的对比增强进行单一约束结构的调整,在推荐系统领域具有显著的性能优势和鲁棒性。
Feb, 2023
本篇研究提出了一种基于图神经网络和图对比学习的协作过滤框架,通过自我监督学习进行自适应增强,实现目的的解耦和噪声抑制,将学习到的解耦表示与全局上下文结合,相比于现有的解决方案,具有更好的性能表现。
May, 2023
本文提出一种名为邻域增强对比学习(Neighborhood-enriched Contrastive Learning,简称 NCL)的方法,将邻居嵌入到对比对中,以实现在图协同过滤方法中减少数据稀疏性的效果,并在五个公共数据集上进行广泛的实验证明了该方法的有效性,尤其在 Yelp 和 Amazon-book 数据集上分别获得了 26%和 17%的性能提升。
Feb, 2022
该研究通过对协同过滤模型的信息论解释,提出一种基于对比学习的冷启动推荐框架 (CLCCre),该框架结合了内容特征和协同表示,并通过保留内容表示中的协同信号来提高冷启动推荐的效果。在四个公开数据集的实验中,该方法在热启动和冷启动场景中均取得了显著的改进。
Jul, 2021