决策支持和推荐系统中解释的系统审查和分类
该论文使用 “Explainability-by-Design” 方法,并构建了一个包含 9 个维度的分类学来生成解释以遵循各种监管框架或组织层面的政策需求,从而帮助制定辅助性的自动合规策略,并提供一个机器可读的轻本体论,以便从一系列实例中演示起始 “Explainability-by-Design” 之旅的好处。
Jun, 2022
该论文综述了在可解释的推荐系统方面的文献,以四个维度为基础,即解释目标、解释范围、解释样式和解释格式,并探讨了使用可视化作为解释展示方式的指导方针,旨在帮助研究者和从业者更好地了解可视化解释研究的潜力,支持他们在现有和未来的推荐系统中进行系统设计。
May, 2023
本篇论文探讨了在自然语言处理和推荐任务中推断高质量执行操作和使解释具有可操作性的两个基本挑战,并通过证明解释性不以在两个应用中展示的卓越表现为代价的框架将人工智能应用实践的承诺变为现实。
May, 2022
本文介绍了一个解释本体模型以及如何使用该模型支持医疗保健领域用户对解释的需求,并帮助系统设计人员在系统设计和实时操作中选择 AI 系统应提供的解释类型。
Oct, 2020
研究人员探讨了 AI 系统推荐错误或不公平的情况下,人工干预的必要性,并提供了关于解释、公平感知、依赖和分布公平性之间关系的理论框架,但文献并没有提供确凿证据证明解释在实践中实现了这种补充关系。
Apr, 2022
本文综述了可解释推荐的评估策略,提出了按照评估方法和角度进行分类的不同分类方法,并分析了现有评估方法的(不)优点并提供了选取它们的一系列指南,并根据来自 IJCAI,AAAI,TheWebConf,Recsys,UMAP 和 IUI 等顶尖会议的 100 多篇论文提出了其完整的总结,最终旨在提供关于可解释推荐的全面而清晰的评估综述。
Feb, 2022
本文提出了一种新方法 RecXplainer,基于用户对推荐项目属性的偏好生成了更细粒度的推荐解释,并使用真实数据集进行了实验进行了评估,结果表明 RecXplainer 能够更好地捕捉用户的喜好,并且相比六种基线方法,RecXplainer 在提供推荐解释方面有更显著的效果。此外,作者还提出了十种新的推荐解释评估度量标准。
Nov, 2022