保持冷静,提高视觉特征归因
本文提出了一种新的指标来量化解释性映射,以提高 Class Activation Mapping (CAM) 方法的评估和重现,通过比较不同基于 CAM 的可视化方法来证明这种新指标的适用性。
Apr, 2021
最近在深度学习方法学研究方面取得了一系列复杂的计算机视觉模型技术,达到甚至超过了人类的表现。然而,这些黑盒深度学习模型在可解释性和透明度方面存在一定限制,而这对将学习机器纳入涉及人类监督的敏感决策支持系统中是至关重要的。因此,解释性计算机视觉技术的发展近年来引起了越来越多的关注。在解释性计算机视觉领域中,类激活映射(CAMs)已被广泛认可和利用,以增强深度学习模型决策过程的可解释性和洞察力。本文全面概述了类激活映射方法随着时间推移的演变,并探讨了用于评估类激活映射的度量标准,并介绍了改善这些方法显著性的辅助技术。概述最后提出了未来研究的潜在方向。
Sep, 2023
本研究针对深度学习模型的解释提出了一种方法,通过梯度获取与误分类样本更相关的确信度估计和提供视觉注意力图,特别是在视觉问答任务中,该方法采用现代概率深度学习方法,并进一步通过这些估计梯度进行改进,得到具有人类注意区域相关性的先进的注意力图,从而提供了更好的解释能力。我们在所有标准基准测试上提供了详细的实证分析和与现有方法的比较。
Aug, 2019
本文提出了一种基于二元变量控制的 CNN 解释模型,并证明了 SHAP 值是以一组理想属性为特点的 CAM 系数的唯一解,进而引入一种基于 DeepLIFT 的高效估计 SHAP 值的方法 ——LIFT-CAM。实验证明 LIFT-CAM 在定量和定性方面均显著优于其他 CAM 方法。
Feb, 2021
本文提出了一种基于绝对值的类激活映射(Abs-CAM)方法,优化了反向传播得到的梯度,使所有梯度都变为正梯度,从而增强了输出神经元激活的视觉特征,并提高了显著图的定位能力。该方法通过两个阶段的生成显著图来改善其定位能力,并在识别和定位任务中表现优异。
Jul, 2022
提出了基于集成的 MetaCAM 方法,结合多种现有的 Class Activation Maps 方法,通过对组件 CAMs 中最高激活像素的前 k% 的一致性进行集成,优化了深度学习模型预测中显著区域的定位性能,并通过自适应阈值方法改善了 CAMs 的性能。
Jul, 2023
提出了一种名为功能激活映射(Feature Activation Map,FAM)的后期解释工具,以此来解释并理解没有全连接层的深度学习模型(如少样本学习图像分类、对比学习图像分类和图像检索任务),其原理是通过两个图像嵌入之间的相似性得出通道贡献权重,并将激活映射与相应的归一化贡献权重线性组合形成可视化的解释图。经过对十种深度学习模型进行的定量和定性实验表明,该算法的有效性。
Jul, 2023
深度学习中越来越需要可解释的 AI。我们的工作旨在将来自较早和较晚网络层的信息结合起来,产生具有竞争力的高分辨率 Class Activation Map,从而准确定位图像特征,从而超越以前的艺术水平。
Apr, 2022
提出了一种新型的 CNN 分类器损失函数,即 CAM-loss,利用类激活映射来约束特征图,以得到更具有区分度的特征表示,并提出了一种基于 CAAM-CAM 匹配的知识蒸馏方法。
Sep, 2021
本文提出了一种名为 BagCAMs 的插入式机制,使用该机制可以让弱监督目标定位方法(WSOL)的性能得到大幅提高,并在三个 WSOL 基准测试上获得最佳表现。BagCAMs 采用了区域本地化器生成(RLG)策略来定义一组区域本地化器,并从训练有素的分类器中导出它们。
Jul, 2022