透过终端用户启发式设计超越 XAI 算法边界
通过 EUCA 用户研究,我们系统地理解了最终用户对 XAI 的要求,并确定了用户友好的解释形式和解释目标,它们对直接启发新的 XAI 算法和评估指标具有帮助
Feb, 2023
该论文讨论使用以用户为中心的角度来解决人工智能不可解释性的问题,并通过在线调查分析用户的不同偏好和特征来设计可解释人工智能,结果将用户分为三类:强权、休闲和隐私导向型用户,从而为人工智能的实际应用带来更人性化的交互。
Oct, 2022
本文介绍了可解释 AI 的技术领域以及人们对人机交互和用户体验设计日益重视,在 XAI 的设计、评估、概念和方法论工具方面提供人本方法的作用。本文旨在提供人本的 XAI 设计,并帮助传达和扩展已有的 XAI 工具箱。
Oct, 2021
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
本文通过系统文献综述,评估了 85 篇人基于 XAI 评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行 XAI 用户研究的最佳实践指南,并强调了将心理科学和以人为中心的 XAI 联系起来的几个开放研究方向。
Oct, 2022
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
通过访谈 20 位 UX 和设计从业者,该研究通过开发基于算法的 XAI 问题库来识别当前 XAI 算法工作和可创建可解释 AI 产品的实践之间的差距,并提出了扩展的 XAI 问题库,探讨其如何用于创建以用户为中心的 XAI。
Jan, 2020
该论文呼吁从事人类中心的可解释人工智能研究,探究人类对于深度学习系统的理解和信任的关键作用,并提出设计可解释的神经网络体系结构的方案,以实现实时、准确、可操作、易于解释和一致的需求。
Jul, 2023
通过系统文献综述研究 AI 解释的四个维度 - 格式、完备性、准确性和时效性,以及 XAI 效应的五个维度 - 信任、透明度、可理解性、可用性和公正性,并且针对未来研究议程提出了研究问题和可能的研究方向,从而开发了一个综合框架,并研究了其对用户行为的影响。
Nov, 2022