通过对 C-XAI 方法进行 thorough review,本文提供了分类体系、选择指南和常见评估策略,旨在促进可解释人工智能领域的发展。
Dec, 2023
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
这篇论文从四个主要聚类方向:综述文章、理论和概念、方法及其评估,总结了可解释人工智能领域的最新技术水平并提出了未来研究方向。
May, 2020
研究人员提出了一种心理学理论,解释了人们如何从显著性图中得出结论,为 XAI 中的精确预测和验证提供了理论依据,并进行了一项用户研究以验证该理论。
May, 2022
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
提出了一种可验证深度学习模型准确性的可解释人工智能方法(XAI)——“我知道什么(WIK)”,通过在遥感图像分类任务中演示一个与要推理的输入数据类似的训练集实例来提供附加信息。该方法能够检查所选示例数据是否足够支持每个推断以及训练数据集是否具有不同于输入数据特征分布的功能,其可用于各种分类和回归等机器学习任务。
Feb, 2023
本文对计算机视觉中基于归因的 Explainable AI (XAI) 方法进行了全面概述,并回顾了梯度、扰动和对比方法,提供了开发和评估强健 XAI 方法的关键挑战的见解。
Nov, 2022
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
对基于梯度的解释方法进行了系统的探索和分类,并介绍了技术细节的实质和算法的演化,同时提出了使用人工和定量评估来衡量算法性能的挑战,为研究人员提供了对最新进展和相关缺点的了解,并激发了未来解决这些问题的兴趣。
Mar, 2024
本文综述了利用计算论证方法建立的可解释 AI 方法,重点关注其不同类型的解释,使用的不同模型,不同交互方式和不同的论证框架。此外,我们还规划了未来的发展方向。
May, 2021