卷积权重的奇异值分解:一种CNN可解释性框架
本研究提出了一种称为网络切片的通用框架,通过评估个体隐藏单元与一组语义概念之间的对齐来量化CNN的潜在表示的可解释性。该方法使用广泛的视觉概念数据集来评估中间卷积层中隐藏单元的语义。使用该方法测试单元的可解释性是否等同于单元的随机线性组合,然后将其应用于比较训练不同监督和自监督任务的各种网络的潜在表示。进一步分析了训练迭代的效果、比较了不同初始化的网络的效果、检查了网络深度和宽度的影响,并测量了深度视觉表示的可解释性的dropout和批标准化的影响。结果表明该方法能够揭示超出CNN模型和训练方法辨别能力之外的一些特征。
Apr, 2017
本研究介绍了 Network Dissection 方法,通过为深度视觉表示的单元提供标签来解释网络。该方法量化了CNN表示的可解释性,通过评估单个隐藏单元和一组视觉语义概念之间的对齐来识别最佳对齐,认定单位为人类可解释标签。研究发现,深度网络是比预期更加透明和可解释的,并且可用于提供CNN对图像的解释预测,以增强其可解释性,这是深度神经网络的重要属性,提供了对其分层结构的新的洞见。
Nov, 2017
本文综述了解神经网络表示和学习可解释/解耦的中间层表示的最新研究进展,并重点介绍了卷积神经网络 (CNNs) 的可视化、诊断、解耦、学习及其在可解释人工智能方面的前景趋势。
Feb, 2018
本文研究探讨卷积神经网络在人工智能领域的应用,并且探讨该类网络存在的问题和局限性,提出使用奇异值分解方法可以分析卷积神经网络中涉及到的非人类因素,从而对其产生作用的原因展开研究。同时提出了一种新的特征分配方法,建立了卷积神经网络的理论框架。
Dec, 2020
通过奇异值分解神经网络权重,构建权重图,探索并非在输入数据下,批规范化引起神经元之间的显著连接和自发稀疏现象,从而提出了奇异值表示作为一种新的方法来表示神经网络的内部状态。
Feb, 2023
本文提出了一种卷积神经网络模型解释框架,指出了模型解释和解释任务的差异,定义了用于表征解释方法的六个因素,并讨论了现有解释方法和评估协议对它们的验证,以及提出了可能出现的研究问题。
May, 2023
本研究针对深度神经网络的模型复杂性和参数过多问题,通过提出一种新的矩阵分解方法,仅训练部分卷积层(基础卷积),并将其余的表示为基础卷积的线性组合,从而有效减少模型大小并加速网络的前向和反向传播。实验结果表明,该方法不仅降低了模型体积,还有助于保持模型质量,具有重要的应用潜力。
Aug, 2024
本研究针对深度神经网络模型中参数过多导致的资源消耗问题,提出了一种新颖的矩阵分解方法,专注于训练卷积层的部分基础卷积,而将其余卷积表示为基础卷积的线性组合。实验结果表明,该方法不仅能有效减少模型大小,还能加速网络的前向和反向传播,并且提出了快速选择不影响模型质量的网络层子集的方法。
Aug, 2024