将人类概念与计算机视觉相结合以实现面部可解释验证
这篇论文针对 XAI 在语义图像分割中的应用,提出了第一份全面的综述。文章对应用类别、领域、评估指标和数据集进行了分析和分类,并提出了可解释的语义分割的分类体系,讨论了潜在的挑战和未来研究方向。
May, 2024
本文调查了可解释人工智能 (XAI) 在基于深度学习的医学图像分析中的应用,提出了一个 XAI 标准框架来分类这些基于深度学习的方法,根据解释方法和解释结构将应用于医学图像分析中的 XAI 技术进行了分类,并按解剖位置进行了整理,并给出了未来在医学图像分析中 XAI 的机会的展望。
Jul, 2021
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
本文对计算机视觉中基于归因的 Explainable AI (XAI) 方法进行了全面概述,并回顾了梯度、扰动和对比方法,提供了开发和评估强健 XAI 方法的关键挑战的见解。
Nov, 2022
近期人工智能的进展使其在初级医疗服务中得到广泛应用,解决了医疗保健领域的需求供应失衡问题。Vision Transformers(ViT)已成为最先进的计算机视觉模型,受益于自注意力机制。然而,与传统的机器学习方法相比,深度学习模型更复杂,常被视为黑匣子,这可能导致人们对其运作方式的不确定性。可解释的人工智能(XAI)是指解释和解读机器学习模型内部运作及其决策的方法,这对医疗领域的决策过程尤为重要。本综述总结了最近 ViT 的进展和解释性方法,以了解 ViT 的决策过程,实现医疗诊断应用的透明性。
Sep, 2023
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
使用可解释人工智能(XAI)进行模型调试,通过专家驱动的问题识别和解决方案创建,发现训练数据集作为主要偏见源,并建议进行模型增强,以帮助识别模型偏见,实现公平和可信赖的模型。
Jan, 2024