交互作用:一种基于用户交互的图像分类模型解释方法
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
本文介绍了可解释 AI 的技术领域以及人们对人机交互和用户体验设计日益重视,在 XAI 的设计、评估、概念和方法论工具方面提供人本方法的作用。本文旨在提供人本的 XAI 设计,并帮助传达和扩展已有的 XAI 工具箱。
Oct, 2021
本文对计算机视觉中基于归因的 Explainable AI (XAI) 方法进行了全面概述,并回顾了梯度、扰动和对比方法,提供了开发和评估强健 XAI 方法的关键挑战的见解。
Nov, 2022
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
人工智能的解释方法对理解深度学习中的决策过程具有重要意义,通过研究对比了三种解释方法的可解释性,结果显示这些方法虽然强调的区域各不相同,但都能提供人类几乎相等的深度理解,进一步增强了这些方法在提升人工智能透明度方面的价值。
Oct, 2023
通过对鸟类识别应用程序的最终用户进行混合方法研究,我们发现参与者们希望获得实际有用的信息,以改善与人工智能的协作,尤其是需要参与者使用 XAI 解释以达到各种目的,包括校准信任、提高任务技能、改变他们的行为以提供更好的输入等
Oct, 2022
本文调查了可解释人工智能 (XAI) 在基于深度学习的医学图像分析中的应用,提出了一个 XAI 标准框架来分类这些基于深度学习的方法,根据解释方法和解释结构将应用于医学图像分析中的 XAI 技术进行了分类,并按解剖位置进行了整理,并给出了未来在医学图像分析中 XAI 的机会的展望。
Jul, 2021