理解 CNN:利用 INN 解释深度表示及不变性
提出了可逆解释网络,可以透明地应用于现有的神经网络架构,将原始表示转换为等效但可解释的表示,并通过仅草绘两个图像和无监督策略定义语义概念,以解释图像生成网络的分类和生成。
Apr, 2020
我们提出了一种逆向识别方法 (INVERT),通过利用学习表示与人可理解的概念之间的区分能力,实现了将学习表示与其对应解释相连接的可扩展方法。此方法具有较低的计算复杂度并且不依赖于分割掩码的可用性,还提供了一个可解释的度量来评估表示与其相应解释之间的一致性并提供统计显著性的度量值,强调其实用性和可信度。我们展示了 INVERT 在各种场景中的适用性,包括识别受偶然相关性影响的表示以及对模型中决策层次结构的解释。
Nov, 2023
本文综述了解神经网络表示和学习可解释 / 解耦的中间层表示的最新研究进展,并重点介绍了卷积神经网络 (CNNs) 的可视化、诊断、解耦、学习及其在可解释人工智能方面的前景趋势。
Feb, 2018
本文提出了一种新颖的技术,通过利用人类描述中蕴含的丰富语义信息来提高深度神经网络的可解释性,特别是在视频字幕任务中,通过一个可解释损失将人类描述中的一组语义相关主题集成到模型中,并提出了一种预测差异最大化算法来解释每个神经元的学习特征。实验结果表明这种方法在视频字幕和视频动作识别方面非常有效。
Mar, 2017
通过研究深度学习模型的架构和数据内在结构之间的关系,本文探讨了深度学习的理论基础,并通过实验和物理启发式玩具模型的结合,揭示了它们的内在工作原理,旨在填补理论与实践之间的鸿沟。
Oct, 2023
神经网络中的不变性对很多任务来说是有用且必要的,然而大多数神经网络模型的不变性表示尚未被表征。我们提出了用于量化神经网络不变性的测量方法,这些方法在内部表征方面是高效且可解释的,适用于任何神经网络模型。相比先前定义的测量方法,它们对不变性更敏感。我们在仿射变换领域、CIFAR10 和 MNIST 数据集上验证了这些测量方法及其特性,包括它们的稳定性和可解释性。利用这些测量方法,我们对 CNN 模型进行了首次分析,并展示了它们对于随机权重初始化具有显著的稳定性,但对于数据集或变换的变化则不稳定。我们相信这些测量方法将开启不变性表征的新研究方向。
Oct, 2023
本文提出了一种将 BERT-GPT2 自编码器的隐藏空间转换为更易分离的语义空间的方法,借助于基于流的可逆神经网络 (INN),实验结果表明,这种方法能够比最新的最先进模型更好地实现语义的分离和可控性。
May, 2023
本研究介绍了 Network Dissection 方法,通过为深度视觉表示的单元提供标签来解释网络。该方法量化了 CNN 表示的可解释性,通过评估单个隐藏单元和一组视觉语义概念之间的对齐来识别最佳对齐,认定单位为人类可解释标签。研究发现,深度网络是比预期更加透明和可解释的,并且可用于提供 CNN 对图像的解释预测,以增强其可解释性,这是深度神经网络的重要属性,提供了对其分层结构的新的洞见。
Nov, 2017
构建鲁棒且可解释的视觉系统是实现可信人工智能的重要步骤。本研究从理论、实践和应用角度系统地研究了层次不变性,并提出了一种使用卷积神经网络(CNN)层次结构构建超完备不变性的可解释方法。通过实验证明,该方法在纹理、数字和寄生虫分类等实验中展示了准确性、不变性和效率。对于规模更大的鲁棒且可解释的视觉任务,层次不变性表示是传统 CNN 和不变性的有效替代。
Feb, 2024