XAIR:增强现实可解释人工智能框架
这篇论文讨论了符合科学历史的可解释人工智能 (XAI) 的框架问题,其原因追溯至现代机器学习(尤其是深度和强化学习)和对创造值得信赖的 AI 系统的关注,它的五个级别框架是 XAI 的关键组成部分。
May, 2020
本文介绍了可解释 AI 的技术领域以及人们对人机交互和用户体验设计日益重视,在 XAI 的设计、评估、概念和方法论工具方面提供人本方法的作用。本文旨在提供人本的 XAI 设计,并帮助传达和扩展已有的 XAI 工具箱。
Oct, 2021
通过系统文献综述研究 AI 解释的四个维度 - 格式、完备性、准确性和时效性,以及 XAI 效应的五个维度 - 信任、透明度、可理解性、可用性和公正性,并且针对未来研究议程提出了研究问题和可能的研究方向,从而开发了一个综合框架,并研究了其对用户行为的影响。
Nov, 2022
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
本研究提出了一种早期采用可解释人工智能(XAI)的方法,重点关注三个属性:解释的质量、解释摘要应在多个 XAI 方法中保持一致;架构兼容性,为了有效集成 XAI,被解释的模型和 XAI 方法的架构样式必须与框架兼容;可配置操作,XAI 解释类似于机器学习操作。因此,AI 模型的解释应该是可复现和可追踪的,可信赖的。我们介绍了 XAIport,一个将 XAI 微服务封装到开放 API 中以提供早期解释作为学习模型质量保证的观测。XAIport 与机器学习开发一起实现可配置的 XAI 操作。我们量化了将 XAI 与 Microsoft Azure Cognitive Services、Google Cloud Vertex AI 和 Amazon Rekognition 上的三个云计算机视觉服务结合的操作成本。我们的研究结果显示,XAI 的操作成本与传统机器学习相当,且 XAIport 显著提高了云 AI 模型的性能和解释稳定性。
Mar, 2024
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
本文针对黑盒子人工智能模型存在的不可解释性问题,在物联网领域提供了一些可解释的人工智能模型的系统性研究和分类,同时探讨了一些挑战性问题和未解决问题,并给出了未来发展方向。
Jun, 2022