无监督学习神经网络解释神经网络(扩展摘要)
本文提出了一种简单而高效的方法,通过自动区分不同的部分模式从每个卷积滤波器中解开卷积神经网络内隐藏的知识层次结构,并构建了一个解释性图形模型,该模型通过无监督学习的方法进行了预训练,该图表现出不同图像中相同的物体部分,并且通过转移图形中的部分模式到部分定位任务中,其性能显著优于其他方法。
Aug, 2017
本文提出了一种方法,将传统的 CNN 转换为可解释的 CNN,以澄清 CNN 高卷积层中的知识表示。在可解释的 CNN 中,高卷积层中的每个滤波器表示某个物体部分,无需任何部件或纹理的注释就可以在学习过程中自动分配。实验表明,可解释的 CNN 中的滤波器比传统 CNN 中的滤波器更具有语义意义。
Oct, 2017
CNN Explainer 是一个用于学习和检查卷积神经网络的交互式可视化工具,旨在解决初学者在学习 CNNs 时面临的关键挑战。该工具紧密集成了模型概述和动态视觉解释视图,使用户能够检查低级数学运算和高级模型结构之间的相互作用,并通过平滑的抽象级别转换。通过定性用户研究,发现 CNN Explainer 可以帮助用户更容易地了解 CNNs 的内部工作,并且使用起来引人入胜。
Apr, 2020
本文介绍了一种新的可解释卷积神经网络(XCNN),能够表示视觉刺激的重要和驱动特征,并提供了无需本地化标签和额外后处理步骤的热图生成。在多个数据集上的实验证明了 XCNN 的成功,验证了其在类别特定特征表示和可解释热图生成方面的性能优于当前算法,同时提供了简单灵活的网络结构,为提高可解释的弱监督定位和语义分割奠定了基础。
Jun, 2020
本文综述了解神经网络表示和学习可解释 / 解耦的中间层表示的最新研究进展,并重点介绍了卷积神经网络 (CNNs) 的可视化、诊断、解耦、学习及其在可解释人工智能方面的前景趋势。
Feb, 2018
通过修改传统卷积神经网络,将其转化为可解释的组合卷积神经网络,以学习中间卷积层中编码有意义的视觉模式的滤波器,从而实现语义可解释的 AI,该方法可以广泛应用于不同类型的 CNN,并且实验效果良好。
Jul, 2021
通过构建深度神经网络中的因果模型并使用自动编码器提取关键概念作为变量,我们开发了一种解释神经网络输出预测的方法,并使用该因果模型识别和可视化对最终分类具有显着因果影响的特征。
Feb, 2018
该文提出了一种名为 “可解释的几何深度网络” 的端到端学习方法,用于在高维数据中实现精细的可解释性,例如神经成像和神经科学研究。该方法采用学习解释性因素来增强鉴别性表示提取,以实现可解释的预测和分类结果。
Jan, 2023
本篇论文提出了一种从卷积神经网络中提取和解释知识的方法,并通过可解释的加性模型量化地解释了神经网络预测的理由,解决了可解释性问题和 Typical Bias-Interpreting 问题,并通过实验证明了该方法的有效性。
Dec, 2018
本文提出了一种基于内部特征及可视化的方法,能够自动识别预先训练模型中与给定类相关的特征,以进行深度模型的解释和阐释,并且提出了一种针对 deconvNet 可视化操作引入的伪像问题的方法,同时还提出了一个专门用于视觉解释方法客观定量评估的数据集 an8Flower。实验证明,该方法在 MNIST、ILSVRC12、Fashion144k 和 an8Flower 数据集上能够产生具有良好主题相关特征覆盖的详细解释。
Dec, 2017