可解释人工智能研究中的文化偏见:系统分析
本文通过系统文献综述,评估了 85 篇人基于 XAI 评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行 XAI 用户研究的最佳实践指南,并强调了将心理科学和以人为中心的 XAI 联系起来的几个开放研究方向。
Oct, 2022
该研究介绍了一种以跨文化伦理为基础的可解释人工智能方法,针对在全球南方低资源领域中的应用,探讨了文化差异如何影响技术采用和使用,以及如何提高用户理解和促进这些方法的有效使用。
Apr, 2023
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
这篇论文通过对 Explainable AI 领域的研究进行统计元分析,得出了 Explainable AI 对于用户决策性能有积极的统计效应,但是并未表明解释对用户的决策性能产生了任何影响,有利于今后研究基于 AI 的非人类决策中人类因素的影响。
May, 2022
该论文通过对 53 篇出版物的系统调查,介绍了可解释人工智能(XAI)和可解释界面(EI)研究的最新趋势,旨在提高 XAI 系统的可用性、实用性和用户体验设计方面的效果,并为 EI 设计与开发指明了有前途的方向。
Mar, 2024
为了更好地实现伦理框架中所需的可解释性,我们需要更具有代表性的用户样本,同时需要更多考虑样本大小的合理性和研究结论的适用性,以促进可解释 AI 研究的进展。
May, 2023
本文介绍了可解释 AI 的技术领域以及人们对人机交互和用户体验设计日益重视,在 XAI 的设计、评估、概念和方法论工具方面提供人本方法的作用。本文旨在提供人本的 XAI 设计,并帮助传达和扩展已有的 XAI 工具箱。
Oct, 2021
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
通过系统文献综述研究 AI 解释的四个维度 - 格式、完备性、准确性和时效性,以及 XAI 效应的五个维度 - 信任、透明度、可理解性、可用性和公正性,并且针对未来研究议程提出了研究问题和可能的研究方向,从而开发了一个综合框架,并研究了其对用户行为的影响。
Nov, 2022