- 提取推荐增强的关键性和解耦知识
通过两个规则,从过去的数据中提取关键和分离的知识,以提高参数化知识库的记忆和泛化能力,促进信息的稳定和广义的知识表达。
- ACLRDRec:基于 LLM 的推荐系统中的原因提炼
本论文提出了一种理由精炼推荐模型(RDRec),通过从用户和物品相关的评论中提取精华,为推荐系统提供了理由,从而将大型语言模型(LLM)的推荐性能推向了前沿。
- 通过大型语言模型增强基于内容的推荐系统
本文提出了一种名为 LoID 的 “插件式” 语义知识传递方法,其中包括两个主要组成部分:基于 LoRA 的大型语言模型预训练以提取多方面的语义信息;基于 ID 的对比目标以对齐它们的特征空间。我们在真实数据集上使用 SOTA 基线进行了大 - 分离和学习潜在混淆因素以增强用户偏好建模
提出了一种名为 SLFR 的新框架,通过解开用户偏好和未测量混淆因素的联系,识别反事实反馈,以捕捉用户的真实偏好,并在五个真实世界数据集上进行了广泛的实验证明了该方法的优势。
- 推荐 AI 代理:整合大型语言模型进行交互式推荐
通过将推荐模型和大型语言模型相结合,本文介绍了一个名为 RecAgent 的高效框架,旨在创建一个多功能和交互式的推荐系统,通过整合大型语言模型,将传统的推荐系统转化为具有自然语言界面的交互系统。实验结果表明,RecAgent 作为一个对话 - 语义 ID 提高泛化能力: 推荐排名案例研究
该论文通过使用基于 RQ-VAE 的语义 ID 替代随机生成 ID 的方式来解决推荐系统中的冷启动问题,并展示了语义 ID 对模型的泛化能力的提升。
- 推荐系统中硬负采样背后的理论
本文探讨了利用 Hard Negative Sampling(HNS)进行大规模数据训练推荐模型的效果机制,分别从 HNS 在 Bayesian Personalized Ranking(BPR)中的应用、One-way Partial A - SIGIR基于偏差隐式反馈的双边自我无偏差学习
提出一种新的无偏向推荐算法 BISER(BIlateral SElf-unbiased Recommender),使用自反倾向权重(SIPW)和双边无偏学习(BU)相结合减少推荐模型对物品的曝光偏差和流行度偏差。经过多次实验证明,BISER - 利用热门选择加速推荐系统训练
通过研究推荐数据的使用方式和特征,本文提出了一种称为 FAE 框架的热嵌入感知数据布局,利用有限的 GPU 内存存储高访问嵌入,以减少 CPU 到 GPU 的数据传输并加速执行,从而将推荐模型的训练时间降低了 2.3 倍。
- 推荐系统离线评估中数据泄露的关键研究
本文对推荐系统离线评估中的数据泄漏问题进行了全面的分析,并通过实验表明,数据泄漏确实会影响模型的推荐准确性,提出了一种时间轴方案来评估推荐系统,以更加真实地模拟离线环境。
- 大规模物品推荐的自监督学习
提出了一种用于大规模商品推荐的多任务自监督学习(SSL)框架,通过学习商品特征的潜在关系来解决标签稀疏性问题,并通过数据增强方法提高模型泛化性能,结果表明此框架可以显著提高推荐系统的商业指标,在模型得到很少监控的情况下特别有效。
- 度量分解:超越矩阵分解的推荐
提出了一种新的推荐技术,称为 “度量分解”,通过使用欧几里得距离测量用户和项目之间的显式接近度来克服矩阵分解中采用的点积无法满足不等式的问题。实验证明,我们的方法在评分预测和项目排名任务上均优于现有的最先进方法。