本文提出了一种基于论证的方法,用于为可解释的人工智能系统生成关于其行动选择过程的解释,并附加有关冲突解决的信息;我们还应用该方法于清洁工作场景。
Sep, 2020
机器学习算法越来越被用于组织的决策中,特征解释引入因果模型的语义,导致决策者的先验偏见泄漏,并产生确认偏见和决策结果的差异,从而导致次优和有偏的决策结果。
Jun, 2022
介绍了解释在人工智能和机器学习决策系统中所扮演的角色,提供了解释的替代概念,并评估了现有解释方法和所需的特点。
Aug, 2018
本文介绍深度模型在视觉决策问题中表现良好的同时,其透明度也导致了可解释系统的兴起,并提出了两个带注释的大规模数据集,通过视觉和文本形式保证决策的分类,同时提出了一种多模式方法,定量证明使用文本解释的训练方法不仅可以获得更好的文本解释模型,还可以更好地定位支持其决策的证据。
Nov, 2017
人们对越来越多的决策由机器完成的需求增加,但黑盒模型的决策推理令人不解,因此需要关注决策推理的清晰度与可解释性,以及如何扩展到反事实思考。
Nov, 2023
理解何时以及为何应用特定的可解释人工智能技术并非易事。本文旨在解决在需要解释时选择最合适的解释器这一挑战。为了使人工智能的可解释性能产生效果,解释以及如何呈现解释需要针对接受解释的利益相关者进行定向。如果一般情况下不存在一种单一的解释技术超过其他技术,那么就需要进行现有方法的推理以选择最适合上下文的解释器。基于其提供的透明度,我们建议采用论证技术来在一组可行解释器中达成一致并选择最合适的解释器。本文中,我们提出了一个模块化推理系统,包括与相关利益相关者的心智模型,解决由多个解释器组件生成的论证问题的推理组件,以及适合于感兴趣的利益相关者的人工智能模型。通过正式化支持前提和推理,我们可以将利益相关者的特征映射到解释技术的特征,从而使我们能够对技术进行推理,并为给定上下文优先选择最佳技术,同时还提供选择决策的透明度。
Dec, 2023
本篇论文主张从现有的可解释人工智能 (XAI) 模型转变到基于评价的人工智能 (Evaluative AI) 以减轻提供推荐的对人类决策制定的限制和不对人类决策制定的认知过程考虑不足带来的问题,并更好地利用人类决策制定的专业知识。
Feb, 2023
本文介绍了一种名为 TED(Teaching Explanations for Decisions)的实用框架,它提供了能够匹配消费者心智模型的有意义的解释,通过两个例子的演示,表明这种方法的广泛性和有效性,同时无损准确性。
Nov, 2018
本文研究了从 ' 案例模型 ' 中学习参数,探究 Verheij 提出的案件模型是否可以用于从其他类型数据集中学习参数,并将其与 HeRO 算法和决策树进行比较。
Feb, 2022
本文聚焦 AI 辅助决策,在 AI 解释人类决策过程中频繁失败的背景下,提出了一个简单的理论,即解释只有在允许决策者验证其正确性时才有用,我们讨论了更有效的 AI 决策解释方法和人工智能 - 人类决策的协作。
May, 2023