- MiSuRe 可解释图像分割的全能者
本文提出了 MiSuRe 算法,用于生成图像分割的显著性图,并在三个数据集上进行了分析,探讨了这些显著性图在分割模型的后续可靠性评估中的潜在用例。
- 多发性硬化症损害分割中的实例级定量显著性
本研究提出了两种基于 SmoothGrad 和 Grad-CAM++ 方法的实例级解释映射,用于语义分割的高可解释性人工智能模型,通过对白质病变的磁共振成像进行检测和分割,揭示了这些方法的相关性,以及分割病变所需的周围组织信息。
- 深度神经网络中解释性与鲁棒性的相互作用探索:一种基于显著性引导的方法
通过使用基于显著性引导的训练(SGT)技术,研究表明它对深度学习模型的鲁棒性和可解释性有显著提升,并提出了一种将 SGT 与标准对抗训练相结合的方法,在确保显著性图质量的同时,实现更大程度的鲁棒性。该方法取得了显著进展,在 MNIST 和 - 可解释梯度的学习范式
本论文研究了卷积网络的可解释性,通过利用显著性图进行分析。我们提出了一种新的训练方法,通过引入正则化损失,使标准反向传播得到的输入图像相对于引导反向传播得到的梯度类似。我们发现,由此得到的梯度在质量上更加清晰,量化上改善了不同网络的可解释性 - 高斯 - 类激活映射解释器在目标检测中的高效简明应用
为了解决可解释人工智能(XAI)中目标检测模型快速提供合理解释的挑战,我们引入了高斯类激活图解释器(G-CAME)。我们的方法利用所选层的激活图并应用高斯核突出预测目标的关键图像区域,高效生成简明的显著图。与其他基于区域的方法相比,G-CA - 可解释人工智能对人类表现的影响:对显著性图行为后果的系统综述
68 个用户研究的系统综述发现,显著性图可以增强人类表现,但也常见到零效应甚至负效应。这些效应受多个因素的调节,包括人类任务、AI 性能、XAI 方法、待分类的图像、人类参与者和比较条件等。图像任务中的效益不如 AI 任务中常见,但效果取决 - 平滑深度显著性
通过减少来自卷积下采样的噪声,我们探讨了解释深度学习模型如何检测扫描的组织标本中的肿瘤的方法,这些方法使得梯度基于隐藏层计算的显著性图更具解释性。我们在 ImageNet1K 上训练的不同模型以及在 Camelyon16 和实际数字病理学染 - 再思视觉显著性引导的弱监督语义分割
基于对显著性图在弱监督语义分割中的作用的新见解和实证发现,该论文提出了对显著性图的新视角,并展示了其在研究方向上的启示。通过全面的实验,发现显著性图的质量是显著性引导的弱监督语义分割中的关键因素;同时指出之前研究中使用的显著性图往往是任意选 - ICLREventRPG: 基于关联传播指导的事件数据增强
提出了一种利用事件相机的脉冲神经网络生成稳定准确的类激活图和显著性图的关联传播方法,并基于此方法提出了 EventRPG,用于提高脉冲神经网络的数据增强效果,并在多个目标识别任务中取得了最新的对象识别准确率。
- 基于特征引导梯度反向传播的可解释人脸验证
该研究探索人脸图像与其深度表示之间的空间关系,并提出了一种新的解释方法 FGGB,通过梯度反向传播生成准确且深入的相似性和差异性显著性地图,用以解释人脸识别系统的 “接受” 和 “拒绝” 决策。视觉展示和定量测量表明,FGGB 在相似性和差 - 基于梯度的目标定位方式实现可解释的激光雷达点云语义分割
本论文介绍了一种名为 pGS-CAM 的基于梯度的新方法,用于在神经网络激活层生成显著性图,该方法在解释点云语义分割预测方面具有鲁棒性和效果,并能够更好地理解模型的预测方式并确定潜在的改进方向。
- 基于 Transformer 的可解释多摄像头 3D 物体检测与显著性图
我们提出了一种新颖的方法,用于生成用于 3D 物体检测的具有多个相机输入的 DetR-like ViT 的显著性图。我们的方法基于原始注意力,比基于梯度的方法更高效。通过大量的扰动测试,我们在 nuScenes 数据集上评估了所提出的方法, - FM-G-CAM: 计算机视觉中可解释 AI 的整体方法
本文介绍了一种全面的解释性方法 FM-G-CAM,它考虑了多个顶级预测类别,并提供了对预测卷积神经网络思维过程的完整解释,同时与 Grad-CAM 进行了比较,并通过实际应用案例突出了其优点。最后,我们介绍了一个使用 FM-G-CAM 生成 - 提高图像分类的事后解释基准可靠性
通过使用心理度量学中的 Krippendorf's alpha 来量化图像分类后置解释方法的可靠性,本研究提出了模型训练改进方法,包括使用扰动样本和采用焦点损失函数,以增强鲁棒性和校准性。经验证实,跨度度量、数据集和后置方法,该开创性工作在 - 态度问题:专注于积极和主动的梯度以提升显著图
本文探讨了从显著性图中挖掘梯度符号的作用,如何更好地理解多类别分类问题,并揭示了卷积神经网络对图像像素的关注和影响。
- 利用可学习赤道偏差的多尺度全向显著图估计
通过提取不同方向和视角的立体全景图像中的二维平面图像,本研究提出了一种新的立体全景图像显著性地图估计模型,并且使用多个视角的二维图像进行多尺度估计,通过像素级别的注意权重在集成层中整合来加权每个目标的最佳尺度,从而改善了显著性地图的准确性。
- 自然样本为基础的可解释性:一项调查
该论文提供了自然基于示例的可解释人工智能领域的现状概述,描述了每种方法的优点和缺点,并比较了它们的语义定义、认知影响和附加价值。希望这将鼓励和促进未来在此领域的工作。
- 关于时间序列分类的显著性解释的一致性和稳健性
对于时间序列分类,本文广泛分析了时间序列特征和时间归因的显著性解释模型的一致性和鲁棒性,并发现它们在各种程度上都存在一些缺乏一致和鲁棒性的问题。通过指出有缺陷的显著性解释模型,我们激励了对时间序列分类开发一致和鲁棒的解释方法。
- 将大脑年龄预测问题重新构建为更易解释且定量化的方法
深度学习模型通过磁共振成像在估计大脑年龄方面取得了最先进的结果。我们将年龄预测问题从全局预测转化为图像回归问题,比较了基于体素的年龄预测模型与基于全局的模型以及它们对应的显著性地图。结果表明,基于体素的年龄预测模型更具解释性,因为它们提供了 - 超越判别区域:作为 CAM 替代品的显著性图用于弱监督语义分割
近年来,提出了几种使用分类器生成的类激活图(CAMs)产生伪地面实况用于训练分割模型的弱监督语义分割(WS3)方法。本文对 WS3 中的类激活图(CAMs)和显著图进行了全面比较,并提出了新的评估指标,以全面评估 WS3 中替代方法的性能。