人类中心的可解释人工智能 (XAI):从算法到用户体验
本文通过系统文献综述,评估了 85 篇人基于 XAI 评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行 XAI 用户研究的最佳实践指南,并强调了将心理科学和以人为中心的 XAI 联系起来的几个开放研究方向。
Oct, 2022
该论文讨论使用以用户为中心的角度来解决人工智能不可解释性的问题,并通过在线调查分析用户的不同偏好和特征来设计可解释人工智能,结果将用户分为三类:强权、休闲和隐私导向型用户,从而为人工智能的实际应用带来更人性化的交互。
Oct, 2022
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
该论文通过对 53 篇出版物的系统调查,介绍了可解释人工智能(XAI)和可解释界面(EI)研究的最新趋势,旨在提高 XAI 系统的可用性、实用性和用户体验设计方面的效果,并为 EI 设计与开发指明了有前途的方向。
Mar, 2024
本研究介绍了四个新的可解释人工智能技术问题,这些问题围绕设计和评估算法,并呼吁建立基于人类需求的可解释人工智能技术开发研究范式,以保证人工智能在关键任务中的负责任使用。
Aug, 2022
介绍了以人为中心的可解释人工智能作为一种方法,该方法考虑了价值观、人际动态和人工智能系统的社会情境性,通过反思的社会技术方法,提出了开放性研究问题,文献以解释系统为例,讨论了人类的因素如何影响系统技术进步,并提出了基于批判性技术实践的反思的 HCXAI 范式,以及价值敏感设计和参与式设计等策略。
Feb, 2020
该论文呼吁从事人类中心的可解释人工智能研究,探究人类对于深度学习系统的理解和信任的关键作用,并提出设计可解释的神经网络体系结构的方案,以实现实时、准确、可操作、易于解释和一致的需求。
Jul, 2023
智能家居系统中智能决策模型的可解释人工智能(XAI)方法对于开发者和从业者有益,但普通用户尤其是家庭成员可能很难理解。本文提倡以人为中心的 XAI 方法,强调提供易于理解的解释以增强用户满意度、推动智能家居系统的采用。通过对两个智能家居应用场景的实验,我们证明著名的 XAI 技术生成的解释可能无法帮助用户理解和做出决策,因此我们主张在智能家居系统中采用以人为中心的方法来表达解释,并介绍相关的人机交互(HCI)方法,包括用户研究、原型设计、技术探针分析和启发式评估,以为用户生成和展示人为中心的解释。
Apr, 2024