多智能体环境决策解释的人工智能
为了建立对 AI 的信任,实现透明化且易懂的 AI 系统成为了重要问题,本文提出了一种通过 AI Planning 实现初步解释的方法,并实现在新的 XAI-Plan 框架中。
Oct, 2018
这篇论文通过对 Explainable AI 领域的研究进行统计元分析,得出了 Explainable AI 对于用户决策性能有积极的统计效应,但是并未表明解释对用户的决策性能产生了任何影响,有利于今后研究基于 AI 的非人类决策中人类因素的影响。
May, 2022
智能家居系统中智能决策模型的可解释人工智能(XAI)方法对于开发者和从业者有益,但普通用户尤其是家庭成员可能很难理解。本文提倡以人为中心的 XAI 方法,强调提供易于理解的解释以增强用户满意度、推动智能家居系统的采用。通过对两个智能家居应用场景的实验,我们证明著名的 XAI 技术生成的解释可能无法帮助用户理解和做出决策,因此我们主张在智能家居系统中采用以人为中心的方法来表达解释,并介绍相关的人机交互(HCI)方法,包括用户研究、原型设计、技术探针分析和启发式评估,以为用户生成和展示人为中心的解释。
Apr, 2024
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
本文聚焦 AI 辅助决策,在 AI 解释人类决策过程中频繁失败的背景下,提出了一个简单的理论,即解释只有在允许决策者验证其正确性时才有用,我们讨论了更有效的 AI 决策解释方法和人工智能 - 人类决策的协作。
May, 2023
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021