XAI 对人类决策是否应该施加解释偏见?
本文提出了一个理论框架和相应的范式,用于分析可解释人工智能如何影响人们的行为和认知,结合行为改变的研究洞察。它提出了衡量 AI 影响并理解其对最佳、安全和道德的人机协作的益处的方法,同时认为本地和基于概念的解释更接近于推动,而全局和反事实解释更接近于促进能力。
Oct, 2022
本研究旨在探讨可解释人工智能对自动化偏见的潜在影响。利用一个酒店评价分类的在线实验,实验证明可解释 AI 可以降低自动化偏见,从而帮助设计和开发安全的混合智能系统。
Apr, 2022
这篇论文通过对 Explainable AI 领域的研究进行统计元分析,得出了 Explainable AI 对于用户决策性能有积极的统计效应,但是并未表明解释对用户的决策性能产生了任何影响,有利于今后研究基于 AI 的非人类决策中人类因素的影响。
May, 2022
通过将 AI 辅助决策视为人类决策过程中的 “推动”,我们提出了一个计算框架,用于解释不同形式的 AI 辅助对决策者的影响,并根据真实数据对其进行评估。研究结果显示,该框架在准确预测 AI 辅助决策中的人类行为方面优于其他基准模型,并提供了不同认知风格的个体受到不同形式 AI 辅助时的洞见。
Jan, 2024
本文通过系统文献综述,评估了 85 篇人基于 XAI 评估的核心论文,并对解释方法的可信、可懂、公平、可用性和人工智能团队表现等进行了归类。作者提出了关于设计和进行 XAI 用户研究的最佳实践指南,并强调了将心理科学和以人为中心的 XAI 联系起来的几个开放研究方向。
Oct, 2022
信息系统经常被设计为利用锚定偏误的负面影响来影响个人的决策(例如通过操纵购买决策)。最近人工智能和可解释人工智能解释其决策的进展为减轻有偏见的决策开辟了新机会。迄今为止,这些技术进步克服锚定偏误的潜力仍然不清楚。为此,我们在购买决策背景下进行了两个在线实验,共有 N=390 名参与者,以研究人工智能和可解释人工智能决策支持对锚定偏误的影响。我们的结果表明,人工智能单独和与可解释人工智能的结合有助于减轻锚定偏误的负面影响。最终,我们的发现对于人工智能和可解释人工智能决策支持和信息系统的设计以克服认知偏见具有影响。
May, 2024
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
在鸟类物种识别任务中,通过一项涉及 136 名参与者的强大的混合方法用户研究,我们评估了错误解释对人类决策行为的影响,考虑了参与者的专业水平和解释的断言程度,并揭示了不完美的 XAI 以及人类专业水平对于其对人类决策和人机团队绩效的依赖的影响。我们还讨论了解释可能在人机合作中误导决策者的方式,从而为设计人机合作系统的设计者提供了指南。
Jul, 2023
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023