剔除 XAI 中的 X:关于可理解人工智能的呼吁
在计算机科学和人工智能中,可解释性已经成为一个重要的话题,从而引出了一门称为可解释人工智能(XAI)的子领域。本概念性的文章旨在从跨学科的视角,将计算机科学、语言学、社会学和心理学整合,探讨在 XAI 和其他领域中理解及其形式、评估和动力学的模型。理解的两种类型被视为解释的可能结果,即使能型(知道如何做或决定某事)和理解型(知道某事)-- 两者程度不同(从浅到深)。解释通常从某一领域的浅层理解开始,可以达到深层的理解和使能,这被视为人类用户获得能动性的先决条件。在这一过程中,理解和使能性的增加高度相互依赖。本文还探讨了 XAI 中理解面临的特殊挑战。
Nov, 2023
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
通过系统分析自然语言解释、结合归纳和演绎论证、和哲学科学中的科学解释现代观念,探讨可解释 AI(XAI)中的可解释性,并揭示自然语言解释的本质,功能,抽象维度和科学解释的含义。
May, 2022
本研究探讨了可解释性人工智能(XAI)中说明的特征和其效用评估,强调了说明的功能角色、用户知识状态以及生成说明所需的信息的要求,并定义了 XAI 领域的重要下一步:建立指导和基础系统生成说明效用的度量标准,以避免 XAI 可能带来的对系统的信任而没有建立其可靠性。
Jun, 2022