反事实可解释推荐
本文提出了一种基于新型可解释性推荐 (CERec) 的方法,利用基于项目属性的反事实解释来提高推荐效果,采用强化学习环境中均匀搜索候选反事实,通过适应路径采样器,使用给定的知识图的丰富上下文信息来缩小巨大的搜索空间。此外,在推荐模型中部署解释策略以提高推荐。
Jul, 2022
通过使用反事实逻辑,即 “如果您不与以下项目互动,我们将不推荐它”,我们探讨了如何解释推荐系统的推荐。我们提出了一个基于学习的框架来生成反事实说明,该框架训练一个代理模型来学习删除用户历史记录子集对推荐的影响,进而找到代理模型预测的最有可能删除推荐的历史记录子集,从而生成解释。通过离线实验和在线用户研究,我们发现相比于基线方法,我们的方法可以生成更加合理和令用户更满意的解释。
Nov, 2022
本文提出了 ACCENT,一个基于影响函数的通用框架,用于找到深度神经网络推荐系统的因果解释。我们利用 ACCENT 生成了针对两种流行的神经网络模型(NCF 和 RCF)的因果解释,并在 MovieLens100K 数据集的样本上表明其可行性。
May, 2021
本文提出一种离线评估方法来评估推荐系统的解释质量,并使用反事实方法量化其对推荐的影响,结果表明与传统的人类评估方法相比,该方法能更好地产生与实际人类判断更相关的评估分数,说明反事实方法是评估推荐解释的一种有前途的方法。
Mar, 2022
该研究基于可解释的 AI 技术,提出了一个计数事实可解释公平框架(CEF)来解决推荐系统中存在的公平性缺陷问题。该模型能够生成关于模型公平性的解释,以提供有关即使做出相关更改也不会显著损害其性能的公平性分数排名的信息。
Apr, 2022
本文提出了一个通过对抗学习生成独立于特征的用户嵌入来实现反事实公平的框架,从而使推荐系统能够为用户实现个性化的公平性。实验表明,该方法可以为用户生成更加公正且具有良好推荐效果的推荐结果。
May, 2021
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
使用黑盒子分类器预测信用申请,使用反事实解释单个预测。 通过 HELOC 贷款应用数据集的实验表明,我们的贡献优于基线对策生成策略,导致更小更易于解释的反事实。
Nov, 2018