新闻推荐系统排名的忠实阐释
本文提出了一种可解释性的Restricted Boltzmann Machines(RBM)协同过滤方法,该方法能够从可解释的项目中计算出前n个推荐列表,并证明了该方法能够生成准确而可解释的推荐结果。
Jun, 2016
本论文提出了一种新的基于Learning-to-Rank方法的Top-N-Rank推荐算法,通过在排名列表中只评估前N个项目,消除评估低排名项目对学习排序函数的影响,并借助多种类型的隐式反馈来提高推荐质量,使用ReLU作为平滑目标函数的方法显著提高了排名质量和运行时间。
Dec, 2018
本研究探讨解释对于AI生成的推荐质量的贡献,提出了一种人机交互框架ELIXIR,通过用户反馈对解释的学习获取用户的隐含偏好向量,最终实现基于图结构推荐系统的优化,实验结果表明该方法在提高电影和图书推荐方面相较于传统方法有显著提升。
Feb, 2021
本文针对Bayesian Personalized Ranking模型的黑箱模型、暴露偏差等两个局限进行改进,提出一种新的可解释且公平的推荐模型Explainable Bayesian Personalized Ranking,并在三个真实世界数据集上进行了实证研究。
Jul, 2021
本研究提出了一种图注意力神经网络模型,结合了用户、物品、属性和句子,用于基于抽取的解释的推荐系统,解决了现有解决方案在轻松感知、可靠性和个性化方面的不足之处。在两个基准评论数据集上的广泛实证评估表明了所提出解决方案的生成质量。
Feb, 2022
本文介绍了 CLEAR 方法,它可以从基于注意力的推荐器的注意力中学习会话特定的因果图,在潜在混淆因素的可能存在下进行。这些因果关系图描述了用户在注意力所捕捉到的上下文中的行为,并为推荐提供了反事实的解释。通过实证评估,我们发现与天真地使用注意力权重来解释输入输出关系相比,CLEAR 找到的反事实解释更简短,并且替代推荐在原始的 Top-K 推荐中得到了更高的排名。
Oct, 2022
本文研究表明:在输出答案之前,引导大型语言模型生成解释是提高推理任务性能的有效策略;本研究还发现神经排名器也受益于解释。我们使用像GPT-3.5这样的大型语言模型对检索数据集进行增强,并训练一个序列到序列的排名模型,输出给定查询-文档对的相关性标签和解释。我们的模型,ExaRanker,在少量带有合成解释的示例上微调,性能与在3倍更多没有解释的示例上微调的模型相当。此外,ExaRanker模型在排名过程中不产生额外的计算成本,可以按需请求解释。
Jan, 2023
这项研究介绍了一种名为XRec的模型无关框架,利用大型语言模型(LLMs)的语言能力推动可解释的推荐系统的发展,该框架通过集成协作信号和设计轻量级的协作适配器使LLMs能够理解用户和物品之间的复杂模式并更深入地了解用户的偏好,全面且有意义的解释能力优于其他基准方法。
Jun, 2024
本研究解决了新闻推荐中个性化排序的挑战,尤其是如何在保留高效性和准确性的基础上进行有效比较。提出了一种新颖的框架,该框架将点式相关性预测与逐对比较相结合,能够在保证可扩展性的同时提升排序效果。实验结果表明,该方法在MIND和Adressa新闻推荐数据集上优于现有的最佳方法。
Sep, 2024