推进事后基于案例的解释与特征突出
研究使用背景知识使得可解释的人工智能更简洁易懂,并使用现有的规则归纳技术从数据集中提取背景信息来做出预测并报告使用的背景信息,帮助人类检查解释的正确性。
Jun, 2022
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
人工智能的解释方法对理解深度学习中的决策过程具有重要意义,通过研究对比了三种解释方法的可解释性,结果显示这些方法虽然强调的区域各不相同,但都能提供人类几乎相等的深度理解,进一步增强了这些方法在提升人工智能透明度方面的价值。
Oct, 2023
通过适应最近的 XAI 分类算法并将它们用于多类别图像分割,本文着重于对高分辨率卫星图像中的建筑物分割的研究,引入了一种基于 “熵” 来衡量模型不确定性的新的 XAI 评估方法和指标,以此来提供透明度和可解释性,为图像分割领域的 XAI 研究和遥感应用铺平道路。
Oct, 2023
该论文研究了深度学习中可解释人工智能的问题,特别关注了特征加性解释器在特征加性预测器中的适用性,并对特征交互进行评估,结果显示所有解释器在正确归因特征重要性方面最终失败。
Oct, 2023
通过用户互动,我们提出了一种基于互动的可解释的 AI 方法,通过修改图像来观察分类结果的变化,使用户能够辨别影响模型决策过程的关键特征,从而将他们的心智模型与模型逻辑对齐。该方法通过用户参与和理解为可解释的 AI 系统提供了更直观和易于访问的方式。
Apr, 2024
提出了一种可验证深度学习模型准确性的可解释人工智能方法(XAI)——“我知道什么(WIK)”,通过在遥感图像分类任务中演示一个与要推理的输入数据类似的训练集实例来提供附加信息。该方法能够检查所选示例数据是否足够支持每个推断以及训练数据集是否具有不同于输入数据特征分布的功能,其可用于各种分类和回归等机器学习任务。
Feb, 2023
本文研究基于热图的可解释 AI 方法在图像分类问题中的质量,并且提出了一个新的分布来显示正确预测和错误预测之间的鲜明差异。最后,提出了一种名为 “生成增强解释” 的方法,可生成能够提高预测精度的热图。
Dec, 2021