最近在深度学习方法学研究方面取得了一系列复杂的计算机视觉模型技术,达到甚至超过了人类的表现。然而,这些黑盒深度学习模型在可解释性和透明度方面存在一定限制,而这对将学习机器纳入涉及人类监督的敏感决策支持系统中是至关重要的。因此,解释性计算机视觉技术的发展近年来引起了越来越多的关注。在解释性计算机视觉领域中,类激活映射(CAMs)已被广泛认可和利用,以增强深度学习模型决策过程的可解释性和洞察力。本文全面概述了类激活映射方法随着时间推移的演变,并探讨了用于评估类激活映射的度量标准,并介绍了改善这些方法显著性的辅助技术。概述最后提出了未来研究的潜在方向。
Sep, 2023
本文提出了一种新的指标来量化解释性映射,以提高 Class Activation Mapping (CAM) 方法的评估和重现,通过比较不同基于 CAM 的可视化方法来证明这种新指标的适用性。
Apr, 2021
深度学习中越来越需要可解释的 AI。我们的工作旨在将来自较早和较晚网络层的信息结合起来,产生具有竞争力的高分辨率 Class Activation Map,从而准确定位图像特征,从而超越以前的艺术水平。
Apr, 2022
该论文提出了一种基于卷积神经网络和 Class Activation Mapping 等方法的、自我检查图像中信息区域、并在迭代分类中关注对分类问题有用的区域的方法,可在多个数据集上实现有竞争力的甚至最先进的结果。
Mar, 2016
提出了一种名为功能激活映射(Feature Activation Map,FAM)的后期解释工具,以此来解释并理解没有全连接层的深度学习模型(如少样本学习图像分类、对比学习图像分类和图像检索任务),其原理是通过两个图像嵌入之间的相似性得出通道贡献权重,并将激活映射与相应的归一化贡献权重线性组合形成可视化的解释图。经过对十种深度学习模型进行的定量和定性实验表明,该算法的有效性。
Jul, 2023
本文提出了一种基于目标图像预测的语义信息的局部感知编码方法,在图像检索中使用卷积神经网络和类激活图进行无监督重排和目标检测,证明了其在 Oxford5k 和 Paris6k 等公共数据集上的优越性能。
Jul, 2017
该论文提出了一种名为 NL-CCAM 的弱监督目标定位方法,通过使用组合类别激活映射,将非局部模块集成到现有的基础网络中,在代表性的目标定位基准测试中取得了卓越的性能,同时证明了所提出方法的广泛适用性。
Oct, 2019
我们提出了一个基于梯度的简单去噪方法,用于过滤噪声并生成高质量的类激活图,通过大量实验验证了该方法在弱监督语义分割任务中的有效性。
Aug, 2023
提出了一种基于 Grad-CAM 的透明度技术,通过可视化重要的输入区域来提高人类对卷积神经网络(CNN)模型的理解,帮助理解包括图像字幕和视觉问答(VQA)模型在内的基于 CNN 的模型,并通过测量它们的分类能力、人类可信度和与遮挡地图的相关性来评估它们的视觉解释。
Nov, 2016
提出了基于集成的 MetaCAM 方法,结合多种现有的 Class Activation Maps 方法,通过对组件 CAMs 中最高激活像素的前 k% 的一致性进行集成,优化了深度学习模型预测中显著区域的定位性能,并通过自适应阈值方法改善了 CAMs 的性能。