评估用于新生儿时间序列数据的可解释 AI 方法 Grad-CAM 进行呼吸分类
可解释的深度学习在医学成像领域引起了广泛关注,研究探讨了可解释的深度学习和 Grad-CAM 在医学成像中的原理、应用技术及局限性,强调了它们对提高医学成像中深度学习模型精确性和解释性的潜力。
Jul, 2023
对不同深度学习模型的 Gradient-weighted Class Activation Mapping (Grad-CAM) 方法在自动胸部 X 光扫描中的气胸诊断中的鲁棒性和有效性进行了研究,结果显示深度神经网络并不一定能够显著提高气胸诊断的准确性,Grad-CAM 的有效性也随着网络架构的不同而变化。
Aug, 2023
通过应用基于阈值的弱监督模型和梯度可解释人工智能技术 (如 saliency map),我们在时序数据中探索其可行性,以识别相关框架。在 15 名中风幸存者的数据集中,我们实现了一个前馈神经网络模型,并利用每个输入对模型结果的梯度来识别涉及补偿动作的显著框架。根据帧级注释评估,我们的方法取得了 0.96 的召回率和 0.91 的 F2 分数。这表明了基于梯度的可解释人工智能技术(如 saliency map)在时序数据中的潜力,例如标识治疗师应重点审查的视频框架,减少模型训练中的帧级标签工作量。
May, 2023
本文介绍了一种全面的解释性方法 FM-G-CAM,它考虑了多个顶级预测类别,并提供了对预测卷积神经网络思维过程的完整解释,同时与 Grad-CAM 进行了比较,并通过实际应用案例突出了其优点。最后,我们介绍了一个使用 FM-G-CAM 生成卷积神经网络模型预测的显著性图的开源 Python 库。
Dec, 2023
研究拟建立基于卷积神经网络(CNN)和长短期记忆(LSTM)分类器的解释性模型,探讨机器学习算法做出决策的模式,提高对心电图信号(ECG)节律分类的准确度。
May, 2022
通过结合 GradCAM 和 LRP 方法,我们提出了一种新的技术来解释基于 CNN 的模型的输出。在这种方法中,首先对 GradCAM 方法产生的解释进行处理以去除噪声,然后将处理后的输出与 LRP 的输出逐元素相乘,最后对乘积应用高斯模糊。通过 Faithfulness、Robustness、Complexity、Localisation 和 Randomisation 等指标我们将该方法与 GradCAM 和 LRP 进行比较,发现该方法在 Complexity 方面性能更好,并且在其他指标中至少比其中一种方法表现更好。
May, 2024
该论文介绍了一个名为 Grad-CAM++ 的泛化方法,它以更好的对象定位和解释单个图像中多个对象实例的方式提供了更好的 CNN 模型预测视觉解释,并在标准数据集上进行了广泛的实验和评估,包括分类,图像字幕生成和 3D 动作识别等多个任务。
Oct, 2017
该论文提出了 Gradient-weighted Class Activation Mapping (Grad-CAM) 技术,结合细粒度的可视化方法,通过对 CNN 模型中任意目标概念的梯度进行处理,使得决策更加透明和可解释,同时能够定位各个重要部件,提高模型泛化性。作者通过将 Grad-CAM 应用于图像分类、字幕和视觉问答模型,并通过人机交互实验证明,该技术能够帮助用户建立模型的信任度并成功辨别模型的强弱。
Oct, 2016
提出了一种基于 Grad-CAM 的透明度技术,通过可视化重要的输入区域来提高人类对卷积神经网络(CNN)模型的理解,帮助理解包括图像字幕和视觉问答(VQA)模型在内的基于 CNN 的模型,并通过测量它们的分类能力、人类可信度和与遮挡地图的相关性来评估它们的视觉解释。
Nov, 2016
对基于梯度的解释方法进行了系统的探索和分类,并介绍了技术细节的实质和算法的演化,同时提出了使用人工和定量评估来衡量算法性能的挑战,为研究人员提供了对最新进展和相关缺点的了解,并激发了未来解决这些问题的兴趣。
Mar, 2024