解释的解释
这篇综述论文回答了“什么是良好的解释”的问题,并涵盖了人工智能 (AI) 系统的历史、现代 AI 的解释问题和挑战、领先心理学理论的发展。鉴于 XAI 系统的特殊性,建议 AI/XAI 研究人员在其研究报告中包含更多有关其经验或实验方法的详细信息,类似于实验心理学研究报告,包括参与者、说明、程序、任务、被试变量 (度量和指标的操作定义)、自变量 (条件)和控制条件。
Feb, 2019
介绍了以人为中心的可解释人工智能作为一种方法,该方法考虑了价值观、人际动态和人工智能系统的社会情境性,通过反思的社会技术方法,提出了开放性研究问题,文献以解释系统为例,讨论了人类的因素如何影响系统技术进步,并提出了基于批判性技术实践的反思的HCXAI范式,以及价值敏感设计和参与式设计等策略。
Feb, 2020
本文探讨了人类尺度的设计、测试和实现Explainable Artificial Intelligence的基本概念,并提出了一种“自解释指南”的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
本文介绍了可解释AI的技术领域以及人们对人机交互和用户体验设计日益重视,在XAI的设计、评估、概念和方法论工具方面提供人本方法的作用。本文旨在提供人本的XAI设计,并帮助传达和扩展已有的XAI工具箱。
Oct, 2021
通过对鸟类识别应用程序的最终用户进行混合方法研究,我们发现参与者们希望获得实际有用的信息,以改善与人工智能的协作,尤其是需要参与者使用XAI解释以达到各种目的,包括校准信任、提高任务技能、改变他们的行为以提供更好的输入等
Oct, 2022
本文通过系统文献综述,评估了85篇人基于XAI评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行XAI用户研究的最佳实践指南,并强调了将心理科学和以人为中心的XAI联系起来的几个开放研究方向。
Oct, 2022
使用 Bloom's 分类法作为用户的认知能力测量模型,在讲解生成的过程中采用反事实解释为媒介,结合用户反馈,验证讲解在每个认知层次上的理解水平,并据此改进讲解的生成方法。
Oct, 2022
本研究关注在高风险人工智能系统中,用户对解释的需求未能得到满足的问题。论文提出了一种混合方法,通过结合知识基础设施与适用的机器学习数据,开发认知代理,以满足用户对解释的需求。这种方法的显著发现是,新的代理系统能够有效地协助人类进行决策,并提升高价值任务中的透明度与信心。
Sep, 2024