基于可解释人工智能方法应用于自动化设计评估中的特征可视化
使用 Class Activation Maps(CAMs)方法对深度学习模型进行全局解释,通过方块表示每个特征的分类影响,大小描述了不同样本间影响的变化,提供交互式直方图进行进一步分析筛选,从而在高维数据中检测重要特征并根据全局解释进行 AI 模型调整。
Jul, 2023
在自动驾驶中,透明度和安全性至关重要,使用于自动驾驶系统中的神经网络通常被认为是黑盒。我们通过可解释的人工智能方法和粗粒化技术来解决这一问题,并提出了一种建立透明骨干模型的方法,使得潜在值能够映射到输入特征,并且性能可与黑盒模型相媲美。此外,我们还提出了分析预测网络内部动态和特征相关性的解释和评估技术,并通过分析一个预测行人感知的 VAE-LSTM 世界模型来展示我们的方法。
Apr, 2024
深度学习算法的崛起在计算机视觉任务中取得了重大进展,但它们的 “黑匣子” 性质引发了对可解释性的关注。可解释人工智能(XAI)作为一个重要的研究领域出现,旨在打开这个 “黑匣子”,并揭示人工智能模型的决策过程。视觉解释作为可解释人工智能的一个子集,通过突出显示输入图像中的重要区域,为处理视觉数据的人工智能模型的决策过程提供直观的见解。我们提出了一个 XAI 基准,其中包括来自不同主题的数据集集合,为图像提供了类别标签和相应的解释注释。我们引入了一个全面的视觉解释流程,在这个流程中整合了数据加载、预处理、实验设置和模型评估过程。此结构使研究人员能够公平比较各种视觉解释技术。此外,我们对视觉解释的超过 10 种评估方法进行综合评述,以帮助研究人员有效利用我们的数据集合。为了进一步评估现有的视觉解释方法的性能,我们使用各种以模型为中心和以真实标注为中心的评估指标在选定的数据集上进行实验。我们希望这个基准可以推动视觉解释模型的进步。这个 XAI 数据集合和用于评估的易于使用的代码公开可访问。
Oct, 2023
自动艺术分析利用不同的图像处理技术对艺术作品进行分类和归类。本文展示了如何利用艺术图像分类中不同任务获得的特征来解决其他具有相似性质的任务,并提出了改进艺术分类系统的泛化能力和性能的不同方法。此外,我们还提出了一种可解释的人工智能方法,通过模糊规则将图像的已知视觉特征与深度学习模型使用的特征进行映射。我们的结果表明,相较于其他上下文感知和非上下文感知的解决方案,我们提出的上下文感知特征在特定任务上可以获得高达 6% 和 26% 的更准确的结果。我们还展示了其中一些模型使用的特征与原始图像的视觉特征之间的相关性更明显。
Aug, 2023
本文介绍了一种基于 Venn-Abers 的新型特征重要性解释方法 Calibrated Explanations,该方法能校准底层模型、生成特征重要性解释并对概率估计和特征重要性权重进行不确定性量化。此外,该方法对模型没有偏见、规则易于理解、可生成反事实解释和不确定性量化。
May, 2023
我们的研究比较了应用于图像分类的激活方法(ABM)中最先进的方法,并通过引入新技术 Feature CAM,得到了在可解释性方面比现有技术提高 3-4 倍的结果。
Mar, 2024
在医疗领域中,应用深度学习进行医学图像分类已成为趋势。然而,这种人工智能系统是极其复杂的 “黑匣子” 模型,难以解释其预测的原因。因此,研究探索可解释的人工智能(XAI)方法,以更好地应用于医学领域。本文通过对卷积神经网络模型进行规范化学图像分类,从三种不同的 XAI 方法对模型进行了可视化的研究和分析。
Dec, 2022
通过采用机器学习与可解释的人工智能技术,我们创建了五个个性化反馈的可视化方案,以帮助用户准确识别电力消耗数据的特定模式,并显示在具有已知可视化模式的界面上。我们的实验表明,这样的 XAI 可视化方案能够被用户准确理解和应用。
Aug, 2022
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023