- 自主深度自我学习与可视化的自动手势识别
本研究利用深度学习探索了三种不同的方法来识别手势:基于监督学习的方法、自监督学习方法和基于可视化的技术应用于三维运动骨架数据。实验结果表明,监督学习方法能够准确识别手势,而自监督学习方法在模拟环境中提高了识别准确性,Grad-CAM 可视化 - 深度学习模型自动评分类风湿性关节炎手部 X 光影像
我们开发了一个定制的自动化流程,可以预测手部 X 光片中的 van der Heijde 修正的 Sharp 评分和类风湿关节炎的严重程度,而无需首先定位关节。
- ICML事后原型网络
通过将训练模型的分类头部解构为一组可解释性零部件原型,我们提出了第一个用于事后解释的零部件原型网络,通过无监督原型发现和精化策略,确保模型的性能并提供更准确的解释和更好的零部件原型。
- 神经欺骗对策如何检测部分伪造的音频?
局部篡改句子可以大大改变其意义。最近的研究表明,训练在部分伪造音频上的对策可以有效地检测此类篡改。然而,目前对对策决策过程的理解有限。我们利用 Grad-CAM 并引入一种定量分析度量来解释对策的决策。我们发现对策优先考虑当连接真实和伪造音 - CVPR探索视频动作识别中的可解释性
我们提出了一个用于研究动作识别假设并定量测试的框架,从而推进视频动作识别中深度神经网络的可解释性研究。
- AAAI基于梯度引导的模态解耦用于缺失模态的鲁棒性
本文介绍了一种使用渐变指示器和梯度引导方法来解决多模态学习中的缺失模态和模态主导性的问题,同时设计了一种动态共享框架来处理模态不完整的数据,并在三个多模态基准数据集上进行了实验证明了该方法的有效性。
- SSPNet:基于尺度和空间先验的可推广和可解释的行人属性识别
通过提出一种新的尺度和空间先验引导网络(SSPNet),利用自适应特征尺度选择(AFSS)和先验位置提取(PLE)模块,该方法实现了行人属性识别模型的精确定位和提高了解释性、泛化能力和性能。此外,通过改进的 Grad-CAM 结合基于 Io - 可解释图像相似性:集成孪生网络与 Grad-CAM
通过结合孪生网络和 Grad-CAM,提出了一种解释性图像相似度的新框架,为真实世界的图像相似度应用增强了可解释性、可信度和用户接受度。
- Grad-CAM 在医学图像中的可解释性
可解释的深度学习在医学成像领域引起了广泛关注,研究探讨了可解释的深度学习和 Grad-CAM 在医学成像中的原理、应用技术及局限性,强调了它们对提高医学成像中深度学习模型精确性和解释性的潜力。
- 探索抽奖票假设和可解释性方法:稀疏网络性能洞察
在本研究中,我们通过使用 Grad-CAM 和 Post-hoc 概念瓶颈模型(PCBMs)分别从像素和高级概念的角度,调查了经过裁剪的网络的可解释性。通过在视觉和医学影像数据集上进行广泛实验,我们发现随着权重的减少,网络的性能会下降,并且 - 基于皮肤病专家反馈的可解释卷积神经网络微调,提升分类可信度
本文提出了一种卷积神经网络微调方法,利用用户反馈实现分类和可视化分类解释两方面输出的同时优化。将该方法应用于皮肤病分类任务,测试卷积神经网络对两种类型用户反馈的反应并说明该方法的作用,同时提出了一种新的卷积神经网络架构,该架构在训练循环中集 - 关于 PHM 中 XAI 的准确性
本文提出一种应用于时间序列回归模型的 XAI 方法的关键性和比较式修订,以探索这些方法的有效性,并比较它们之间的性能差异,结果表明 GRAD-CAM 是最强大的方法。
- 评估心电图特征归因方法
通过评估 11 种特征归因方法的三个评估指标,即定位分数、指向游戏和退化得分,我们发现 Grad-CAM 这种方法非常适用于解释心电图 (ECG) 检测,并且比第二优秀的方法表现更加卓越。
- 利用 Grad-CAM 解释目标检测结果的 YOLO 算法
本文探讨了视觉目标检测的可解释性问题,具体地,我们演示了如何将 Grad-CAM 集成到 YOLO 对象检测器的模型架构中并分析结果。我们展示了如何计算每个检测的基于归因的解释,并发现结果的归一化对其解释有很大的影响。
- Grad-CAM++ 等价于带有正梯度的 Grad-CAM
研究了 Grad-CAM 算法在图像对象识别中的定位作用以及其限制,提出了 Grad-CAM++ 算法,并表明它比多个对象实例的图像中用于网络预测的简单变量实现的 Grad-CAM 算法更有效。
- CVPR使用 Grad-CAM 进行普适对抗性解释
本论文提出了一种将 Grad-CAM 从基于实例的解释方法扩展到全局模型行为解释方法的新方法,其中引入了两个新指标来评估模型的泛化能力,利用对原始测试集和敌对测试集样本的 Grad-CAM 生成热图的规范化倒置结构相似性指标(NISSIM) - CVPR对比学习实现的一致性解释
该研究通过对 Grad-CAM 解释热图的对比自监督训练,提高了解释一致性,从而在限制数据的精细分类设置中提高了模型准确性,并允许非标记数据的训练。
- 基于一体化梯度评分的卷积神经网络敏感性感知可视解释
通过计算 Grad-CAM 的基于梯度项的路径积分,我们提出了一种解决方法,可以更好地说明该模型提取的特征对其预测的重要性,对于物体定位和模型解释具有重要意义。
- 定量评估显著性方法:实验研究
本文基于对解释人工智能(XAI)的准确定义和公正衡量标准缺失的讨论,提出了一种广泛的实验研究,重点关注解释方法的忠实度、本地化、假阳性、敏感度检查和稳定性。实验结果表明,在当前所有方法中,梯度加权类激活映射(Grad-CAM)和随机输入抽样 - 街景到空中景象图像地理定位和方向估计的再探讨
本文研究了将查询街景图像与参考集中带有 GPS 标记的航空图像进行匹配的问题,并指出了图像对齐信息的被忽视问题,研究表明,基于度量学习技术的改进可以显著提高性能而无需利用对齐信息,同时使用 Grad-CAM 进行可视化来理解模型以及对齐信息