正念解释: XAI 研究中 思维归因的普及率和影响
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020
我们研究了当一个 AI 系统遇到一项不能完美执行的任务时,用户如何看待其限制,并且提供解释是否有助于用户构建系统能力和限制的适当心理模型。通过控制视觉输入,在视觉问答解释任务中,我们操控 AI 系统的限制:在推理过程中,该系统可以处理全彩色或灰度图像。我们的目标是确定参与者是否能够察觉到该系统的限制。我们假设解释会使有限的 AI 能力对用户更加透明。然而,我们的研究结果显示解释没有这种效果。与其实际表现无关,解释通常会增加用户对系统能力的认知。
Jun, 2024
人工智能的迅猛发展需要开发者和设计师注重人和机器的合作。通过理解认知心理学的发现,确定了四个构成元素,即感知、语义、意图和用户与上下文,以设计有效的解释,如通过将文本和视觉、可能性和实例、意向交流融合,实现了计算食品卡路里的例子,并建议在解释生成和交流之间增加一个额外的步骤,以确定解释的效力。
Oct, 2022
采用心灵理论将人的意图、机器理解和人对机器的理解显式建模,生成更优质的 AI 解释框架以提高人们对复杂机器学习模型的信任。在 3 个视觉识别任务中展示了该框架的实际应用性,而且经过大量的人类实验证明该框架的效果比现有的同类算法要更好。
Sep, 2019
使用 Bloom's 分类法作为用户的认知能力测量模型,在讲解生成的过程中采用反事实解释为媒介,结合用户反馈,验证讲解在每个认知层次上的理解水平,并据此改进讲解的生成方法。
Oct, 2022
本研究通过心理物理实验评估了 AI 系统的说明方法的人类使用者的理解能力,并发现不同的场景对于提高人类理解 AI 系统的说明方法的效果存在较大的差异,因此需要开发提供定性信息的补充方法。
Dec, 2021
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
本文探讨了人类和人工智能决策团队的过度依赖现象,提出了一种基于成本效益框架的策略模型来平衡 AI 解释带来的成本和效益,证明了在某些情况下 AI 解释可降低过度依赖。
Dec, 2022