可解释的深度神经网络(xDNN)
本文提出了一个基于概念的后续解释 AI 框架,通过原型模型不仅传达了每个实例的决策策略 (局部),而且还传达了整体的类别决策策略 (全局),从而降低了对人类长期评估的依赖,并使模型验证成为一个直观且可解释的工具。
Nov, 2023
该篇论文综述了深度神经网络在机器学习中的应用,针对一些需要保证安全性的决策(如控制系统和医疗应用),介绍了当前解释性人工智能(XAI)领域的研究,探究和解释 DNNs 内部和整体行为的方法。
Feb, 2021
本文中,我们提出一种新的深度学习网络架构,其中包含自编码器和原型层,这种网络可以自然地解释每个预测的原因,并且能够进行分类。
Oct, 2017
本文发现了一个问题:通过微调输入图像,我们可以演示图像识别的解释方式可以通过进化策略对其进行任意操作。通过我们的 Adversarial XAI 算法 AttaXAI,我们能够在不使用梯度或其他模型内部的情况下,成功地在黑盒设置下操作解释方法,从而实现了对图像做微小改变却使 XAI 方法输出特定解释的目标。
Nov, 2022
本文介绍了一种新的可解释卷积神经网络(XCNN),能够表示视觉刺激的重要和驱动特征,并提供了无需本地化标签和额外后处理步骤的热图生成。在多个数据集上的实验证明了 XCNN 的成功,验证了其在类别特定特征表示和可解释热图生成方面的性能优于当前算法,同时提供了简单灵活的网络结构,为提高可解释的弱监督定位和语义分割奠定了基础。
Jun, 2020
介绍了 ProtoPNet,一种深度神经网络架构,该模型通过识别图像的原型部分并将原型部分的证据结合起来,类似于鸟类学家、医生和其他人解决图像分类任务的方式,提供了一定程度的可解释性,并在 CUB-200-2011 数据集和 Stanford Cars 数据集上实现了可比较的准确性。
Jun, 2018
深度神经网络在反应式系统中作为控制器的应用越来越多。为了解释和证明其行为,可解释的人工智能(XAI)技术引起了人们的广泛兴趣。本文提出了一种形式化的 DNN 验证型 XAI 技术,用于推理多步骤的反应式系统,并通过利用系统的过渡约束来计算简洁的解释。在自动导航领域的两个广泛应用的基准测试中,我们的方法在计算最小和最小解释时表现出了高效的性能,同时比现有技术更可靠。
Jul, 2023
本文提供了一份指南,让初学者可以更轻松地掌握可解释深度学习的基础方法和相关研究领域,介绍了三个定义了基础方法空间的简单维度、讨论了模型解释的评估以及可解释性在其他相关研究领域中的位置,并详细阐述了面向用户的解释设计和可解释深度学习可能的未来方向。
Apr, 2020
该研究提出了一种使用新方法训练的深度超网络来生成可解释的线性模型的方法,以保留黑匣子深度网络的准确性并提供自由的可解释性,而需要与黑匣子深度模型相同的运行时和内存资源,实现了实用性,实验结果表明,该可解释的深层网络在表格数据上与最先进的分类器一样准确,且在实际预测中也具有与最先进的解释技术相当的解释能力。
May, 2023
提出使用基于决策树的推理和合成数据来平衡分类,具有可完整解释且不需要使用 GPU 的 DMR 原型方法和网络架构,可以有效解决多类别问题中类别不平衡的问题,并在多个基准测试问题的测试中获得最佳表现和两个世界纪录。
Feb, 2020