通过使用反事实逻辑,即 “如果您不与以下项目互动,我们将不推荐它”,我们探讨了如何解释推荐系统的推荐。我们提出了一个基于学习的框架来生成反事实说明,该框架训练一个代理模型来学习删除用户历史记录子集对推荐的影响,进而找到代理模型预测的最有可能删除推荐的历史记录子集,从而生成解释。通过离线实验和在线用户研究,我们发现相比于基线方法,我们的方法可以生成更加合理和令用户更满意的解释。
Nov, 2022
本文提出 Counterfactual Explainable Recommendation(CountER)模型,并利用因果推理的洞见进行解释,通过联合优化来生成新的最小更改使得机器推荐相反的物品,以便形成推荐的原因解释,具有更高的解释质量。
Aug, 2021
本文探讨了解释质量的评估以及当前主流的代理分数评价方法的问题,得出代理分数与人类评分相关性较差,且使用频率越高表达能力越弱的结论,最终提出指导方针以实现有意义的评价和推动系统的发展。
Oct, 2022
基于多标准分析的多阶段集成方法能够从 Pareto 前沿中选择一个用于解释机器学习模型预测的可行对策。实验结果表明,该方法能够生成具有吸引力的多种质量度量的可操作对策。
Mar, 2024
本文提出了采用反事实解释的方法,通过三步:提问,寻找矛盾,合理推理,来让读者理解为什么一个特定新闻被认定为虚假,通过在 FEVER 数据集的实验评估表明,这种方法相比于现有成果更具有帮助性。
Jun, 2022
本文提出了 ACCENT,一个基于影响函数的通用框架,用于找到深度神经网络推荐系统的因果解释。我们利用 ACCENT 生成了针对两种流行的神经网络模型(NCF 和 RCF)的因果解释,并在 MovieLens100K 数据集的样本上表明其可行性。
May, 2021
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
本文提出了一种新颖的使用方面标记的技术,可以从评论文本中生成个性化的推荐解释,允许用户通过批判文本解释来修改推荐条件,在两个真实数据集上的实验证明,该方法可以在单步和多步批判中适应用户的偏好,是一种新型的无监督批判方法。
May, 2020
通过重新定义反事实解释方法,结合强化学习的特点,探索在强化学习领域实现反事实解释的方法和研究方向。
通过使用显著特征解释和假设性解释来更加分析性地对待人工智能建议,可以降低对人工智能的过度依赖,提高医疗决策过程中的性能和一致性,尤其是在确保人工智能提供正确输出的情况下。
Aug, 2023