用于视觉实例搜索的类加权卷积特征
该论文提出了一种基于卷积神经网络和 Class Activation Mapping 等方法的、自我检查图像中信息区域、并在迭代分类中关注对分类问题有用的区域的方法,可在多个数据集上实现有竞争力的甚至最先进的结果。
Mar, 2016
提出了一种新的计算 CAM 的方法,通过引入一种新的计算方法,可以显式地捕捉到不具有识别能力的对象特征,从而将 CAM 扩展到覆盖整个对象,实验结果表明,该方法在弱监督语义分割领域具有优越性,且计算成本较低。
Mar, 2023
深度学习中越来越需要可解释的 AI。我们的工作旨在将来自较早和较晚网络层的信息结合起来,产生具有竞争力的高分辨率 Class Activation Map,从而准确定位图像特征,从而超越以前的艺术水平。
Apr, 2022
本文提出了一个基于卷积神经网络的局部特征编码和基于词袋模型的实例检索方法,该方法将每个卷积层中的局部激活函数数组映射到可视化词汇中,从而实现了空间重新排序和检索的目的,并在 Oxford 和 Paris buildings benchmarks 中取得了具有竞争力的性能表现。
Apr, 2016
本文提出了一种新颖的框架用于图像检索,通过采用各种掩码方案从卷积特征中选择代表性的子集来解决爆炸性问题,并采用最新的嵌入和聚合方法进一步提高特征可区分性,从而达到了最先进的检索准确度。
Jul, 2017
提出了一种名为功能激活映射(Feature Activation Map,FAM)的后期解释工具,以此来解释并理解没有全连接层的深度学习模型(如少样本学习图像分类、对比学习图像分类和图像检索任务),其原理是通过两个图像嵌入之间的相似性得出通道贡献权重,并将激活映射与相应的归一化贡献权重线性组合形成可视化的解释图。经过对十种深度学习模型进行的定量和定性实验表明,该算法的有效性。
Jul, 2023
本文对多种因素对卷积神经网络(CNN)提取的特征代表性的影响进行了全面评估,提出了一种新的多尺度图像特征表示方法来有效编码图像,并在可视化目标检索的四个典型数据集上表现出了优异的性能。
Nov, 2016
提出了一种基于 Grad-CAM 的透明度技术,通过可视化重要的输入区域来提高人类对卷积神经网络(CNN)模型的理解,帮助理解包括图像字幕和视觉问答(VQA)模型在内的基于 CNN 的模型,并通过测量它们的分类能力、人类可信度和与遮挡地图的相关性来评估它们的视觉解释。
Nov, 2016
提出了一种新型的 CNN 分类器损失函数,即 CAM-loss,利用类激活映射来约束特征图,以得到更具有区分度的特征表示,并提出了一种基于 CAAM-CAM 匹配的知识蒸馏方法。
Sep, 2021
本文研究使用卷积网络所提供的图像表示在视觉实例检索任务中的可用性,并通过利用多尺度图像特征提取方案,特别地,通过将几何不变性纳入到明确的位置、尺度和空间一致性中的方法来提取来自于该网络的局部特征,实验结果表明,如果对其进行适当提取,那么通用卷积网络图像表示法可优于其他先进方法。
Dec, 2014