FFAM:用于 3D 检测器解释的特征因子化激活图
提出了一种名为功能激活映射(Feature Activation Map,FAM)的后期解释工具,以此来解释并理解没有全连接层的深度学习模型(如少样本学习图像分类、对比学习图像分类和图像检索任务),其原理是通过两个图像嵌入之间的相似性得出通道贡献权重,并将激活映射与相应的归一化贡献权重线性组合形成可视化的解释图。经过对十种深度学习模型进行的定量和定性实验表明,该算法的有效性。
Jul, 2023
本文提出一种名为 ODAM 的可视化解释技术,通过利用检测器目标流入的梯度产生热图,展示每个预测属性对检测器决策的影响,提高了模型的解释能力并进行了相应的实验证明。同时进一步提出了训练方案 Odam-Train 和 Odam-NMS,通过对模型预测信息和解释进行处理,可以提高模型在重复检测物体时的表现。
Apr, 2023
利用激活流(activation flows)基于点云模型,我们提出了一种可感知的全局解释方法,与不基于生成模型的其他激活最大化方法相比,我们的方法极大地增强了解释的可感知性。
Apr, 2024
提出了一种基于 DDPM 的点云全局可解释性方法 (DAM),该方法利用了 Point Diffusion Transformer (PDT) 作为一个新颖的点对称模型,通过双分类器指导来生成高质量的全局解释。通过对 DAM 使用的自适应路径梯度积分方法的改进,不仅为点云类别的显著性图提供了全局概览,还揭示了在生成过程中解释的归因如何变化。大量实验证明我们的方法在感知性、代表性和多样性方面优于现有方法,并且在生成时间上有显著减少。
Jan, 2024
为了解决可解释人工智能(XAI)中目标检测模型快速提供合理解释的挑战,我们引入了高斯类激活图解释器(G-CAME)。我们的方法利用所选层的激活图并应用高斯核突出预测目标的关键图像区域,高效生成简明的显著图。与其他基于区域的方法相比,G-CAME 将解释时间显著减少到 0.5 秒,同时不降低解释的质量。我们在 MS-COCO 2017 数据集上使用 Faster-RCNN 和 YOLOX 对 G-CAME 进行评估,结果显示其能够提供高度合理且忠实的解释,尤其在减少对小目标检测的偏见方面表现出色。
Apr, 2024
本文提出了一种使用高斯激活映射解释器(G-CAME)生成显着性图作为解释目标检测模型的方法,与其他基于区域的方法相比,G-CAME 具有更短的解释时间,并在 MS-COCO2017 数据集上得到了定性和定量的评估。
Jun, 2023
为了更深入了解深度学习模型提取的中间特征,我们提出了一种综合特征分析方法,通过特征分布分析和特征分解来探索模型对数据集的影响,并提供了一种常用强度标尺的分布信息,以解决当前 CAM 算法中缺失的信息,验证了该方法的可靠性和相对简洁性。
Jul, 2024
本文提出了一种基于神经注意力网络的模型,命名为注意力分解机,该模型通过区分不同特征交互的重要性,通过学习数据来改进了因同等加权造成的效率下降的因素分解机,实验证明改进后的注意力分解机在回归任务中相对于因素分解机有 8.6% 的相对改善,而且在结构更简单、模型参数更少的情况下一致优于最先进的深度学习方法 Wide&Deep 和 DeepCross。
Aug, 2017
本研究提出了一种方法,可以在不需要先前的体系结构知识或访问模型内部参数的情况下,为检测到的对象生成归因图,以更好地理解这些模型的行为,同时比较了最近 3D 目标检测体系结构的指定映射,为解释性提供了深刻的洞察。
Apr, 2022