多通道高分辨率卷积神经网络类激活图
本文提出 Shap-CAM,一种基于类激活映射的新型后续可视化解释方法,通过获取 Shapley 值来消除依赖于梯度的先前方法的不足,表现出更好的视觉性能和公平性以解释决策过程。
Aug, 2022
提出了一种名为功能激活映射(Feature Activation Map,FAM)的后期解释工具,以此来解释并理解没有全连接层的深度学习模型(如少样本学习图像分类、对比学习图像分类和图像检索任务),其原理是通过两个图像嵌入之间的相似性得出通道贡献权重,并将激活映射与相应的归一化贡献权重线性组合形成可视化的解释图。经过对十种深度学习模型进行的定量和定性实验表明,该算法的有效性。
Jul, 2023
最近在深度学习方法学研究方面取得了一系列复杂的计算机视觉模型技术,达到甚至超过了人类的表现。然而,这些黑盒深度学习模型在可解释性和透明度方面存在一定限制,而这对将学习机器纳入涉及人类监督的敏感决策支持系统中是至关重要的。因此,解释性计算机视觉技术的发展近年来引起了越来越多的关注。在解释性计算机视觉领域中,类激活映射(CAMs)已被广泛认可和利用,以增强深度学习模型决策过程的可解释性和洞察力。本文全面概述了类激活映射方法随着时间推移的演变,并探讨了用于评估类激活映射的度量标准,并介绍了改善这些方法显著性的辅助技术。概述最后提出了未来研究的潜在方向。
Sep, 2023
提出了基于集成的 MetaCAM 方法,结合多种现有的 Class Activation Maps 方法,通过对组件 CAMs 中最高激活像素的前 k% 的一致性进行集成,优化了深度学习模型预测中显著区域的定位性能,并通过自适应阈值方法改善了 CAMs 的性能。
Jul, 2023
本文提出了一种新的方法,Eigen-CAM,用于生成深度卷积神经网络 (CNNs) 的类激活图,该方法通过计算 CNNs 的卷积层的特征 / 表示的主要成分来实现,且不需要更改层或重新训练模型。与目前最先进的方法相比,在弱监督目标定位任务上,Eigen-CAM 取得了高达 12% 的性能提升,并且相对于 CNNs 的全连接层的分类错误具有强鲁棒性。
Aug, 2020
本文提出了一种基于绝对值的类激活映射(Abs-CAM)方法,优化了反向传播得到的梯度,使所有梯度都变为正梯度,从而增强了输出神经元激活的视觉特征,并提高了显著图的定位能力。该方法通过两个阶段的生成显著图来改善其定位能力,并在识别和定位任务中表现优异。
Jul, 2022
该论文提出了一种基于参数化上采样的 Class Activation Mapping 方法,专注于解决卷积神经网络在弱监督条件下物体定位的问题,通过将拟合的解码器与 CNN 分类器相连,利用附加属性如图像统计和大小约束扩展和精细化对象边界,实验证明,与现有的弱监督物体定位方法相比,该方法在保证推理计算效率的同时,在 CAM 定位准确度方面获得了显著的提高。
Sep, 2021
本文提出了一种基于目标图像预测的语义信息的局部感知编码方法,在图像检索中使用卷积神经网络和类激活图进行无监督重排和目标检测,证明了其在 Oxford5k 和 Paris6k 等公共数据集上的优越性能。
Jul, 2017
本文提出了一种基于二元变量控制的 CNN 解释模型,并证明了 SHAP 值是以一组理想属性为特点的 CAM 系数的唯一解,进而引入一种基于 DeepLIFT 的高效估计 SHAP 值的方法 ——LIFT-CAM。实验证明 LIFT-CAM 在定量和定性方面均显著优于其他 CAM 方法。
Feb, 2021
我们的研究比较了应用于图像分类的激活方法(ABM)中最先进的方法,并通过引入新技术 Feature CAM,得到了在可解释性方面比现有技术提高 3-4 倍的结果。
Mar, 2024