SimpleX:协同过滤的简单而强大的基准模型
我们提出的 Neighborhood-Enhanced Supervised Contrastive Loss (NESCL) 模型在三个真实数据集上, Yelp2018、Gowalla 和 Amazon-Book,相较于原始的 SGL 模型,在 NDCG@20 上分别提升了 10.09%、7.09% 和 35.36%。
Feb, 2024
学习目标对协同过滤系统至关重要,贝叶斯个性化排名(BPR)损失广泛用于学习信息丰富的骨干。然而,BPR 往往收敛较慢且局部最优解不理想,部分原因是因为它仅考虑每个正样本一个负样本,忽视了其他未观察到项目的潜在影响。为了解决这个问题,最近提出的采样 Softmax 交叉熵(SSM)将一个正样本与多个负样本进行比较,从而提高了性能。我们的综合实验证实,推荐系统在训练过程中始终受益于多个负样本。此外,我们引入了一种简化的采样 Softmax 交叉熵损失(SimCE),该损失使用其上界简化了 SSM。我们在 12 个基准数据集上进行验证,使用 MF 和 LightGCN 骨干,结果显示 SimCE 在性能上明显优于 BPR 和 SSM。
Jun, 2024
本文提出了一种自监督的协同过滤框架 (SelfCF),能够用于隐式反馈的推荐场景,该框架简化了 Siamese 网络并能够轻松应用于现有的基于深度学习的协同过滤模型,通过三种输出扰动技术来增强骨干网络生成的嵌入,尽管不区分背骨模型,但仍能够在四个数据集上实现比封装的监督对应物更好的推荐准确性,训练速度为 2×-4×,平均能提升 17.79%与自我监督框架 BUIR 相比。
Jul, 2021
本文分析了现有损失函数之间的关系,揭示了先前的损失函数可以解释为对齐和均匀度函数,并基于此分析提出了一种新的损失函数 MAWU,该函数考虑了数据集的独特模式,通过缓解用户 / 物品特定的流行度偏差和调整用户和物品均匀度之间的重要性,使得使用 MAWU 的 MF 和 LightGCN 在三个公共数据集上与各种损失函数的最先进的协同过滤模型相媲美或更优。
Aug, 2023
研究在线用户行为的推荐系统,介绍针对在线正面评级的一类协同过滤算法,分析了用户响应概率、探索用户喜好所需评级数和更新用户偏好所需评级数之间的相关性,探讨正负评级和正面评级之间相同和不同的方面对于评级数的影响。
May, 2017
本文针对 Collaborative filtering 中的 state-of-the-art 方法 SimpleX 在 multi-core CPUs 表现欠佳的问题,提出了一种名为 HEAT 的高效 CF 训练系统,通过瓦片 embedding 矩阵、优化 SGD 方法和重复利用前向阶段结果的方式有效提升了计算性能,并在 5 个常用数据集上进行了评估。结果表明,在 x86 - 和 ARM - 系 CPU 上,HEAT 相对现有 CPU 解决方案提升了高达 65.3 倍的速度,在使用 NVIDIA V100 GPU 的云计算方案上,也取得了 4.8 倍的加速和 7.9 倍的成本降低。
Apr, 2023
提出了一种新的自我监督推荐框架 HCCF,它利用超图增强交叉视角对比学习体系结构共同捕捉本地和全局协作关系,结合超图结构编码和自我监督学习来增强推荐系统的表示质量,并通过三个基准数据集的广泛实验证明了其优越性和稀疏用户交互数据的鲁棒性。
Apr, 2022
我们提出了一种新颖的随机抽样方法 SCONE,通过基于评分的生成模型生成动态增强视图和多样的困难负样本,以克服数据稀疏性和负采样等图协同过滤模型面临的挑战。在六个基准数据集上的全面评估中,我们的 SCONE 显著提高了推荐准确性和鲁棒性,证明了我们方法在现有 CF 模型上的优越性。此外,我们证明了针对用户稀疏性和物品热门度问题的用户 - 物品特定随机抽样方法的有效性。随机抽样和基于图的协同过滤的整合,在个性化推荐系统中取得了最先进的成果,实现了在信息丰富环境中的重要进展。
May, 2024
多边界损失(MML)是一种简单而有效的损失函数,通过引入多个边界和变化的负样本权重,解决了资源有限时的挑战,并在两个知名数据集上实验证明,在使用更少的负样本时,MML 相对于基准对比损失函数取得了高达 20%的性能提升。
May, 2024
本篇研究提出了一种基于图神经网络和图对比学习的协作过滤框架,通过自我监督学习进行自适应增强,实现目的的解耦和噪声抑制,将学习到的解耦表示与全局上下文结合,相比于现有的解决方案,具有更好的性能表现。
May, 2023