关于推荐系统语言解释的忠实度和连贯性问题
提供自然语言解释对于非专业用户尤为有用,然而目前常用的评估方法未能充分捕捉解释和预测之间的连贯性,因此本文通过人工验证、自动连贯性评估方法和基于 Transformer 的新方法阐明了这个问题,并进行了实验评估,结果表明该方法明显提高了解释的连贯性而不影响推荐性能的其他方面。
Dec, 2023
论文提出了一种使用生成文本解释推荐结果的框架,旨在为推荐系统提供可解释性,实现个性化解释,实验结果表明,与人类编写的评论相比,生成的评论在推荐性能方面表现更好。
Jul, 2018
通过使用知识图谱方法和协同过滤技术,我们的研究提出了一种可以生成客观描述的推荐解释的方法,该方法结合了用户购买历史和物品特征,为用户提供与其偏好相匹配的个性化解释,实验结果表明该方法在自然语言可解释推荐方面优于现有的最新模型。
Aug, 2023
本研究旨在通过加强推荐和对应解释之间的情感对齐,使解释的学习与推荐的学习更加紧密地连接。实验结果表明,该方案在推荐和解释任务方面均优于基线,特别是在生成解释的质量方面表现出色。
Jan, 2021
本文提出了一种新颖的使用方面标记的技术,可以从评论文本中生成个性化的推荐解释,允许用户通过批判文本解释来修改推荐条件,在两个真实数据集上的实验证明,该方法可以在单步和多步批判中适应用户的偏好,是一种新型的无监督批判方法。
May, 2020
解释性推荐在工业界和学术界近年来备受关注。在推荐系统框架中提供的解释具有多种用途:尤其是解释为什么提供建议和物品与用户个性化偏好的匹配程度。因此,解释在影响用户购买产品方面起着重要作用。然而,这些解释在不同情况下的可靠性还没有严格从经验的角度进行验证。不可靠的解释可能带来强烈的后果,如攻击者利用解释来操纵和引诱用户购买推广的目标物品。本文研究了现有基于特征的可解释性推荐系统的脆弱性,特别是分析了它们在模型参数中增加不同水平的外部噪声下的性能。我们通过分析两个广泛使用的电子商务推荐数据集上训练的三个重要的最新算法进行实验。我们观察到所有可解释性模型都对增加的噪声水平脆弱。实验结果验证了我们的假设,即随着噪声水平的增加,解释推荐的能力确实减弱,尤其是敌对噪声对减弱的影响更大。我们的研究提供了有关推荐系统中稳健解释主题的经验验证,可以推广到不同类型的可解释性推荐系统。
May, 2024
为了提高用户满意度和建立信任,推荐系统内提供解释尤为重要,特别是对为用户定制的推荐物品进行解释。在这个研究领域中,主要方法是生成基于文本的解释,主要侧重于应用大型语言模型(LLMs)。然而,由于时间限制和计算资源限制,对于可解释性推荐来说,细化 LLMs 的工作并不可行。作为替代方案,当前的方法是训练提示而不是 LLMs。在这项研究中,我们开发了一个模型,利用用户和项目输入的 ID 向量作为 GPT-2 的提示。我们在多任务学习框架内使用联合训练机制来优化推荐任务和解释任务。这种策略能更有效地探索用户的兴趣,提高推荐的效果和用户满意度。通过实验,在 Yelp、TripAdvisor 和 Amazon 数据集上,我们的方法在解释能力评估指标上分别达到 1.59 DIV、0.57 USR 和 0.41 FCR,相比于四种现有技术,表现出卓越性能。此外,我们发现所提出的模型能够确保在这三个公共数据集上文本质量的稳定。
Jan, 2024
本文提出了使用层级序列到序列模型(HSS)生成自由文本的自定义推荐解释,以提高电子商务推荐模型效率和解释质量。使用基于主题物品特征词的自动去噪机制能够解决生成用户解释时存在的问题。经过实验验证该方法不仅提高了推荐精度,而且在离线评估和功能词覆盖范围方面还提高了解释质量。
Jan, 2021