Grad-CAM 在医学图像中的可解释性
该论文提出了 Gradient-weighted Class Activation Mapping (Grad-CAM) 技术,结合细粒度的可视化方法,通过对 CNN 模型中任意目标概念的梯度进行处理,使得决策更加透明和可解释,同时能够定位各个重要部件,提高模型泛化性。作者通过将 Grad-CAM 应用于图像分类、字幕和视觉问答模型,并通过人机交互实验证明,该技术能够帮助用户建立模型的信任度并成功辨别模型的强弱。
Oct, 2016
对不同深度学习模型的 Gradient-weighted Class Activation Mapping (Grad-CAM) 方法在自动胸部 X 光扫描中的气胸诊断中的鲁棒性和有效性进行了研究,结果显示深度神经网络并不一定能够显著提高气胸诊断的准确性,Grad-CAM 的有效性也随着网络架构的不同而变化。
Aug, 2023
该论文介绍了一个名为 Grad-CAM++ 的泛化方法,它以更好的对象定位和解释单个图像中多个对象实例的方式提供了更好的 CNN 模型预测视觉解释,并在标准数据集上进行了广泛的实验和评估,包括分类,图像字幕生成和 3D 动作识别等多个任务。
Oct, 2017
提出了一种基于 Grad-CAM 的透明度技术,通过可视化重要的输入区域来提高人类对卷积神经网络(CNN)模型的理解,帮助理解包括图像字幕和视觉问答(VQA)模型在内的基于 CNN 的模型,并通过测量它们的分类能力、人类可信度和与遮挡地图的相关性来评估它们的视觉解释。
Nov, 2016
本文通过用户研究评估了 Grad-CAM 解释方法在新生儿通气数据时间序列分类的神经网络中的应用的感知有用性,揭示了实现真实透明度的困难以及许多参与者希望获得更深入解释的愿望。
May, 2024
通过计算 Grad-CAM 的基于梯度项的路径积分,我们提出了一种解决方法,可以更好地说明该模型提取的特征对其预测的重要性,对于物体定位和模型解释具有重要意义。
Feb, 2021
本文介绍了一种叫做 Smooth Grad-CAM++ 的新方法,用于可视化神经网络内部的决策过程并解释其输出,该方法在多种场合下表现出更优秀的效果,特别是在物体定位和图像分类方面。
Aug, 2019
本文介绍了一种全面的解释性方法 FM-G-CAM,它考虑了多个顶级预测类别,并提供了对预测卷积神经网络思维过程的完整解释,同时与 Grad-CAM 进行了比较,并通过实际应用案例突出了其优点。最后,我们介绍了一个使用 FM-G-CAM 生成卷积神经网络模型预测的显著性图的开源 Python 库。
Dec, 2023
本文介绍了在医学影像诊断中应用深度学习的机会与挑战,重点讲述了可解释人工智能(XAI)在医学影像中的应用,并对解释方法、数据集和评估指标进行了综述和比较,最后探讨了深度学习在医学影像领域的未来研究方向。
May, 2022