解决谜题:推导深度网络的最优解释
本文发现了一个问题:通过微调输入图像,我们可以演示图像识别的解释方式可以通过进化策略对其进行任意操作。通过我们的 Adversarial XAI 算法 AttaXAI,我们能够在不使用梯度或其他模型内部的情况下,成功地在黑盒设置下操作解释方法,从而实现了对图像做微小改变却使 XAI 方法输出特定解释的目标。
Nov, 2022
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
本文调查了可解释人工智能 (XAI) 在基于深度学习的医学图像分析中的应用,提出了一个 XAI 标准框架来分类这些基于深度学习的方法,根据解释方法和解释结构将应用于医学图像分析中的 XAI 技术进行了分类,并按解剖位置进行了整理,并给出了未来在医学图像分析中 XAI 的机会的展望。
Jul, 2021
本文介绍了在医学影像诊断中应用深度学习的机会与挑战,重点讲述了可解释人工智能(XAI)在医学影像中的应用,并对解释方法、数据集和评估指标进行了综述和比较,最后探讨了深度学习在医学影像领域的未来研究方向。
May, 2022
本文探讨不同非线性分类场景下,解释性人工智能模型的表现,并通过一系列实验测试发现,当前流行的 XAI 方法往往无法显著提高准确性基线和边缘检测方法,甚至在不同模型结构下产生非常不同的解释,存在误解的风险。
Jun, 2023
该论文呼吁从事人类中心的可解释人工智能研究,探究人类对于深度学习系统的理解和信任的关键作用,并提出设计可解释的神经网络体系结构的方案,以实现实时、准确、可操作、易于解释和一致的需求。
Jul, 2023
这篇论文讨论了符合科学历史的可解释人工智能 (XAI) 的框架问题,其原因追溯至现代机器学习(尤其是深度和强化学习)和对创造值得信赖的 AI 系统的关注,它的五个级别框架是 XAI 的关键组成部分。
May, 2020