FICNN:深度卷积神经网络解释框架
本研究提出了一种称为网络切片的通用框架,通过评估个体隐藏单元与一组语义概念之间的对齐来量化CNN的潜在表示的可解释性。该方法使用广泛的视觉概念数据集来评估中间卷积层中隐藏单元的语义。使用该方法测试单元的可解释性是否等同于单元的随机线性组合,然后将其应用于比较训练不同监督和自监督任务的各种网络的潜在表示。进一步分析了训练迭代的效果、比较了不同初始化的网络的效果、检查了网络深度和宽度的影响,并测量了深度视觉表示的可解释性的dropout和批标准化的影响。结果表明该方法能够揭示超出CNN模型和训练方法辨别能力之外的一些特征。
Apr, 2017
本研究介绍了 Network Dissection 方法,通过为深度视觉表示的单元提供标签来解释网络。该方法量化了CNN表示的可解释性,通过评估单个隐藏单元和一组视觉语义概念之间的对齐来识别最佳对齐,认定单位为人类可解释标签。研究发现,深度网络是比预期更加透明和可解释的,并且可用于提供CNN对图像的解释预测,以增强其可解释性,这是深度神经网络的重要属性,提供了对其分层结构的新的洞见。
Nov, 2017
本文提出了一种基于内部特征及可视化的方法,能够自动识别预先训练模型中与给定类相关的特征,以进行深度模型的解释和阐释,并且提出了一种针对deconvNet可视化操作引入的伪像问题的方法,同时还提出了一个专门用于视觉解释方法客观定量评估的数据集an8Flower。实验证明,该方法在MNIST、ILSVRC12、Fashion144k和an8Flower数据集上能够产生具有良好主题相关特征覆盖的详细解释。
Dec, 2017
本文介绍了一种利用决策树定量解释预训练卷积神经网络的预测理由的方法,通过分解CNN高卷积层的特征表示为对象部件的基本概念的方式,使决策树告诉人们哪些对象部分激活了哪些滤波器以及它们对预测得分的贡献有多大。
Feb, 2018
本文综述了解神经网络表示和学习可解释/解耦的中间层表示的最新研究进展,并重点介绍了卷积神经网络 (CNNs) 的可视化、诊断、解耦、学习及其在可解释人工智能方面的前景趋势。
Feb, 2018
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
本文提供了一个现有方法的回顾,以开发具有内在可解释性的DNN,重点关注卷积神经网络(CNNs),旨在了解向完全可解释DNN的当前进展,并确定当前工作中的差距和潜在研究方向。
Jun, 2021
提出基于深度卷积神经网络的新型机器学习解释器,融合局部与全局解释框架,以实现对模型性能的更精确理解和监控。该方法可应用于各种卷积神经网络结构,并分析其输入输出关系、特征相关性和过滤器的重要性等关键参数。
Oct, 2022
本文介绍了一种新方法,使用条件生成对抗网络(GAN)通过信息传递学习卷积神经网络(CNN)的图像处理和预测,同时解决了如何将信息传递到GAN的挑战和如何有效地训练GAN的问题,该方法通过中间层的平均交互地图来表达CNN的结构,通过两种交互方案的对比得出了GAN可有效解释CNN从而提高图像处理的实现效率。
Jan, 2023
该论文引入了一种新的路径来缓解卷积神经网络中滤波器和图像类之间的纠缠,通过将CNN的滤波器分组到类别特定的簇中,实现了更好的可解释性和较高的区分能力。
Dec, 2023