重新思考 AI 的可解释性与合理性
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
本文研究解释型人工智能(XAI)的性能评估,包括解释质量、用户满意度、用户对人工智能系统的理解度、好奇心的激发、信任及依赖程度以及人机协同的表现。根据广泛的研究文献和心理测量评估结果,提出相应的方法和建议。
Dec, 2018
为了建立对 AI 的信任,实现透明化且易懂的 AI 系统成为了重要问题,本文提出了一种通过 AI Planning 实现初步解释的方法,并实现在新的 XAI-Plan 框架中。
Oct, 2018
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
本研究旨在对现有可解释人工智能研究进行审查,并对 XAI 方法进行分类。该研究目的在于为 XAI 用户提供适当的方法,并将所需属性与当前 XAI 方法相关联,从而为用户提供个性化的解释。
Feb, 2023
通过对情感分析、意图检测和主题标记等三个自然语言处理任务中选定的易解释算法与专家解释方法的综合定量比较,我们的研究表明,传统的基于扰动的方法 Shapley value 和 LIME 可以同时实现更高的准确度和用户可访问性,与模型的推理过程、领域专家一致的解释方式。这一发现提示我们在优化解释算法时应当以双重目标为导向,以实现准确度和用户可理解性的双重提高。
Mar, 2024
机器学习模型解释学(即可解释性 AI)的研究与深度人工神经网络同步呈指数增长,但传统的信任和解释却太狭隘,导致研究社区被误导。该研究提出了一种实用的解决方案,建议研究人员关注机器学习解释的实用性而非信任,提出五种广泛的用例,并为每种情况描述可依靠客观经验测量和可证伪假设的伪实验。该实验严谨的处理方法将对 XAI 领域的科学知识的进一步贡献是必要的。
Sep, 2020
最近几年,机器学习和人工智能在社会中的影响非常显著,但是其应用也引起了严重关切。解释性人工智能(XAI)致力于为人类决策者提供可理解的机器学习模型预测解释,是可信任人工智能的基石。本文调查了基于逻辑的解释性人工智能(XAI)的技术和研究领域,并指出了当前非严谨方法的误区。
Jun, 2024