本研究使用卷积神经网络进行城市识别,并使用 Grad-CAM 技术生成加权掩模,聚类物体和统计措施来量化高解释性的特征,同时研究了不同的网络架构和初始化方式对城市识别深度特征的可解释性的影响。
May, 2019
本文综述了解神经网络表示和学习可解释 / 解耦的中间层表示的最新研究进展,并重点介绍了卷积神经网络 (CNNs) 的可视化、诊断、解耦、学习及其在可解释人工智能方面的前景趋势。
Feb, 2018
本研究介绍了 Network Dissection 方法,通过为深度视觉表示的单元提供标签来解释网络。该方法量化了 CNN 表示的可解释性,通过评估单个隐藏单元和一组视觉语义概念之间的对齐来识别最佳对齐,认定单位为人类可解释标签。研究发现,深度网络是比预期更加透明和可解释的,并且可用于提供 CNN 对图像的解释预测,以增强其可解释性,这是深度神经网络的重要属性,提供了对其分层结构的新的洞见。
Nov, 2017
本文提出了一种基于面部重建和视觉显著性的解释深度人脸识别决策的方法,通过产生表达输入面部相似和不相似区域的视觉显著性图,提供了有洞察力的解释, 在实验证明所提出方法的有效性。
Jun, 2023
我们的研究比较了应用于图像分类的激活方法(ABM)中最先进的方法,并通过引入新技术 Feature CAM,得到了在可解释性方面比现有技术提高 3-4 倍的结果。
Mar, 2024
该研究提出了一种新方法,将新颖性检测与 CNN 图像特征相结合,用于在大型数据集中快速发现新的,有趣的,不同寻常或异常的图像,并提供可解释的解释。
Jun, 2018
本文提出并实现了一种基于单个卷积神经网络的人脸识别方法,使用残差学习框架和归一化特征计算损失,实验证明在不同数据集上具有较好的泛化性能。
Mar, 2017
本文综合评估了基于深度学习的面部表示在不同条件下的性能,仍需预处理,如姿态和光照归一化以在各种条件下取得更好的性能。
Jun, 2016
本文提出了一种方法,将传统的 CNN 转换为可解释的 CNN,以澄清 CNN 高卷积层中的知识表示。在可解释的 CNN 中,高卷积层中的每个滤波器表示某个物体部分,无需任何部件或纹理的注释就可以在学习过程中自动分配。实验表明,可解释的 CNN 中的滤波器比传统 CNN 中的滤波器更具有语义意义。
Oct, 2017
本文提出了一种改进神经网络分类器特征可解释性的方法,将对抗鲁棒性引入模型训练过程,并通过评估真实边界框和可视化方法量化特征可解释性,在 NIH ChestX-ray14 数据集上进行了实验,并展示了对抗鲁棒优化方法在定量和定性上提高了特征可解释性。