本文通过系统文献综述,评估了 85 篇人基于 XAI 评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行 XAI 用户研究的最佳实践指南,并强调了将心理科学和以人为中心的 XAI 联系起来的几个开放研究方向。
Oct, 2022
提出了一个以用户为中心的框架,旨在为非专业用户提供交互式可解释人工智能解决方案。
Sep, 2021
通过对 C-XAI 方法进行 thorough review,本文提供了分类体系、选择指南和常见评估策略,旨在促进可解释人工智能领域的发展。
Dec, 2023
本文介绍了可解释 AI 的技术领域以及人们对人机交互和用户体验设计日益重视,在 XAI 的设计、评估、概念和方法论工具方面提供人本方法的作用。本文旨在提供人本的 XAI 设计,并帮助传达和扩展已有的 XAI 工具箱。
Oct, 2021
本文提出了一个新的分类法,以解决解释性人工智能领域中缺乏广泛接受的分类法的问题,并在现有定义和框架的基础上系统分析,重点关注透明性、可解释性、完整性、复杂性和可理解性等核心概念和关系,旨在为未来的研究建立共享词汇。通过使用 SHAP 包,我们在我们新开发的分类法的背景下量化和增强了一个用于从 MERLOT 中策划和推荐最合适的在线资源的推荐系统的可解释性。
Sep, 2023
通过在解释性人工智能(XAI)中引入用户中心评估框架,我们希望综合评估方法,总结解释属性,建立相互关系,并分类度量这些属性,以期为 XAI 评估的人本标准化做出贡献。
Jul, 2023
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
该论文提出了一种基于线性代数的分类法,用于提供一个数学方法来区分和比较不同的可解释人工智能技术所产生的解释,特别是针对数据集属于 R^n 的情况下的局部解释。
Jan, 2023
在这篇论文中,我们通过提出一个评估任务来客观并定量地衡量可解释人工智能系统在信息交互中提供给用户的信息能力,并计划在人机决策任务中比较两种 XAI 技术,以深入理解是否用户中心的方法比传统方法更具信息性。