利用原因来提高人类任务表现
通过实验表明,利用 sample-based rationales 可提高机器学习系统的分类准确性,我们在此基础上通过 Explanations 对其解释时的表现也得出加强版的 Explanable AI 理论;特别是,我们发现在 CNN-based 文本分类中,利用 supervised attention 相比于 normal 无监督 attention 更优秀。
May, 2019
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
May, 2024
这篇论文通过对 Explainable AI 领域的研究进行统计元分析,得出了 Explainable AI 对于用户决策性能有积极的统计效应,但是并未表明解释对用户的决策性能产生了任何影响,有利于今后研究基于 AI 的非人类决策中人类因素的影响。
May, 2022
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
最近几年,机器学习和人工智能在社会中的影响非常显著,但是其应用也引起了严重关切。解释性人工智能(XAI)致力于为人类决策者提供可理解的机器学习模型预测解释,是可信任人工智能的基石。本文调查了基于逻辑的解释性人工智能(XAI)的技术和研究领域,并指出了当前非严谨方法的误区。
Jun, 2024
我们介绍了一个使用可解释的人工智能(XAI)的智能系统(CL-XAI)用于认知学习的研究,其两个主要目标是探索人类学习者如何理解使用 XAI 工具的人工智能模型的内部机制,并通过人类反馈评估这些工具的有效性。使用 CL-XAI 在一个基于游戏的虚拟案例中说明了其应用,学习者通过解决组合问题来增强解决问题的能力和加深对复杂概念的理解,突出了认知学习和协同学习中潜在的转变性进展。
Dec, 2023
本研究探讨了一组通常与机器学习分类任务一起使用的著名可解释人工智能 (XAI) 方法,以验证它们是否能被利用,不仅提供解释,而且还可以改善模型本身的性能。研究结果表明,Integrated Gradients 方法构建的解释突出了可用于提高分类性能的输入特征。三个数据集上的实证评估支持了这一结论。
Jun, 2023