本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
本研究通过与最新方法(集成渐变、保守 LRP 和 ChatGPT)进行对比实证调查,收集和分析了 156 个人生成的文本和基于显著性的解释,并发现与机器显著性图相比,人工显著性图尤其在解释人工智能结果时更具说明性,但其性能与对人工智能模型和解释的信任负相关,揭示了人工智能解释中的困境:当有助于理解错误的人工智能预测时,会降低任务表现。
Apr, 2024
通过系统文献综述研究 AI 解释的四个维度 - 格式、完备性、准确性和时效性,以及 XAI 效应的五个维度 - 信任、透明度、可理解性、可用性和公正性,并且针对未来研究议程提出了研究问题和可能的研究方向,从而开发了一个综合框架,并研究了其对用户行为的影响。
Nov, 2022
这篇论文从四个主要聚类方向:综述文章、理论和概念、方法及其评估,总结了可解释人工智能领域的最新技术水平并提出了未来研究方向。
May, 2020
本研究旨在对现有可解释人工智能研究进行审查,并对 XAI 方法进行分类。该研究目的在于为 XAI 用户提供适当的方法,并将所需属性与当前 XAI 方法相关联,从而为用户提供个性化的解释。
Feb, 2023
使用 Bloom's 分类法作为用户的认知能力测量模型,在讲解生成的过程中采用反事实解释为媒介,结合用户反馈,验证讲解在每个认知层次上的理解水平,并据此改进讲解的生成方法。
Oct, 2022
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
深度神经网络的可解释性问题可以通过采用不同的科学解释模型,避免当前解释模糊性而产生的困惑,更有助于用 “可理解的人工智能” 标签避免 XAI 的混淆。
Mar, 2024