可解释的推荐:调查和新视角
该论文综述了在可解释的推荐系统方面的文献,以四个维度为基础,即解释目标、解释范围、解释样式和解释格式,并探讨了使用可视化作为解释展示方式的指导方针,旨在帮助研究者和从业者更好地了解可视化解释研究的潜力,支持他们在现有和未来的推荐系统中进行系统设计。
May, 2023
本文综述了可解释推荐的评估策略,提出了按照评估方法和角度进行分类的不同分类方法,并分析了现有评估方法的(不)优点并提供了选取它们的一系列指南,并根据来自 IJCAI,AAAI,TheWebConf,Recsys,UMAP 和 IUI 等顶尖会议的 100 多篇论文提出了其完整的总结,最终旨在提供关于可解释推荐的全面而清晰的评估综述。
Feb, 2022
解释性推荐在工业界和学术界近年来备受关注。在推荐系统框架中提供的解释具有多种用途:尤其是解释为什么提供建议和物品与用户个性化偏好的匹配程度。因此,解释在影响用户购买产品方面起着重要作用。然而,这些解释在不同情况下的可靠性还没有严格从经验的角度进行验证。不可靠的解释可能带来强烈的后果,如攻击者利用解释来操纵和引诱用户购买推广的目标物品。本文研究了现有基于特征的可解释性推荐系统的脆弱性,特别是分析了它们在模型参数中增加不同水平的外部噪声下的性能。我们通过分析两个广泛使用的电子商务推荐数据集上训练的三个重要的最新算法进行实验。我们观察到所有可解释性模型都对增加的噪声水平脆弱。实验结果验证了我们的假设,即随着噪声水平的增加,解释推荐的能力确实减弱,尤其是敌对噪声对减弱的影响更大。我们的研究提供了有关推荐系统中稳健解释主题的经验验证,可以推广到不同类型的可解释性推荐系统。
May, 2024
提出了一个能够在外部攻击下保持鲁棒性和提供一般性解释的特征感知可解释推荐系统的通用框架,通过在三个不断增大的流行电子商务数据集上对两个架构不同的基于特征的最先进可解释算法进行训练,实验证明了该框架在正常和嘈杂环境下全局解释能力的整体提升,展示了其灵活性和可变性。
May, 2024
本文提出了一种新方法 RecXplainer,基于用户对推荐项目属性的偏好生成了更细粒度的推荐解释,并使用真实数据集进行了实验进行了评估,结果表明 RecXplainer 能够更好地捕捉用户的喜好,并且相比六种基线方法,RecXplainer 在提供推荐解释方面有更显著的效果。此外,作者还提出了十种新的推荐解释评估度量标准。
Nov, 2022
本文介绍了一种通过利用知识图谱的外部知识来生成解释的方法,通过 Personalized PageRank 算法对商品和知识图谱实体进行联合排序,生成具有解释的推荐。
Jul, 2017
本研究探讨了为增强推荐系统的解释能力,提高用户对推荐系统的满意度和信任的透明度和解释目标的关系,并通过用户研究表明了不同的解释智能类型取决于解释目标和用户类型。
May, 2023
论文提出了一种使用生成文本解释推荐结果的框架,旨在为推荐系统提供可解释性,实现个性化解释,实验结果表明,与人类编写的评论相比,生成的评论在推荐性能方面表现更好。
Jul, 2018
该研究基于可解释的 AI 技术,提出了一个计数事实可解释公平框架(CEF)来解决推荐系统中存在的公平性缺陷问题。该模型能够生成关于模型公平性的解释,以提供有关即使做出相关更改也不会显著损害其性能的公平性分数排名的信息。
Apr, 2022