关于可解释人工智能研究中不当样本大小和普适性的原则:更加包容的用户研究
本文通过系统文献综述,评估了 85 篇人基于 XAI 评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行 XAI 用户研究的最佳实践指南,并强调了将心理科学和以人为中心的 XAI 联系起来的几个开放研究方向。
Oct, 2022
解釋性人工智能 (XAI) 系統需要考慮人們的文化差異,並確定不同文化背景下的使用者對於解釋的需求,以免產生文化偏見,目前的研究普遍忽略了這方面的變異,這項研究旨在填補這一知識空白。
Feb, 2024
本研究介绍了四个新的可解释人工智能技术问题,这些问题围绕设计和评估算法,并呼吁建立基于人类需求的可解释人工智能技术开发研究范式,以保证人工智能在关键任务中的负责任使用。
Aug, 2022
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
本文分析了解释性人工智能(XAI)领域中用户研究的质性调查,提出通过社会科学语料库的方式,改进 XAI 研究者使用观察、访谈、焦点小组和 / 或问卷捕捉质性数据的研究索求。文章根据质性研究文献中所描述的相关要素上下文化呈现 XAI 论文的研究成果:1)基础理论或框架,2)方法论方法,3)数据收集方法和 4)数据分析过程。分析结果支持 XAI 社区中其他研究者的呼吁,倡导与社会学科领域的专家合作以加强用户研究的严谨性和有效性。
Nov, 2020
通过系统文献综述研究 AI 解释的四个维度 - 格式、完备性、准确性和时效性,以及 XAI 效应的五个维度 - 信任、透明度、可理解性、可用性和公正性,并且针对未来研究议程提出了研究问题和可能的研究方向,从而开发了一个综合框架,并研究了其对用户行为的影响。
Nov, 2022
通过解释 AI 系统的决策,例如提供达到子程序目标的反事实解释,来分析 AI 系统的推理是一种流行的可解释 AI(XAI)方法。本文提出了一个新问题,即识别对给定解释(或相关量)有很高影响力的训练数据样本,并研究了受保护群体之间子程序成本差异的特定情况。我们提出了一种算法来识别这样的有影响力的训练样本。
Jun, 2024
这篇论文通过对 Explainable AI 领域的研究进行统计元分析,得出了 Explainable AI 对于用户决策性能有积极的统计效应,但是并未表明解释对用户的决策性能产生了任何影响,有利于今后研究基于 AI 的非人类决策中人类因素的影响。
May, 2022
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
通过 EUCA 用户研究,我们系统地理解了最终用户对 XAI 的要求,并确定了用户友好的解释形式和解释目标,它们对直接启发新的 XAI 算法和评估指标具有帮助
Feb, 2023