风格链接:理解深度学习模型中的学习特征
本文主要归纳了卷积神经网络的三大可视化方法及其实现,介绍了FeatureVis工具库对中间层特征的理解,以及分析网络的失败案例,并提供了术语为研究者提供了方便。
Jun, 2016
本研究提出了一种称为网络切片的通用框架,通过评估个体隐藏单元与一组语义概念之间的对齐来量化CNN的潜在表示的可解释性。该方法使用广泛的视觉概念数据集来评估中间卷积层中隐藏单元的语义。使用该方法测试单元的可解释性是否等同于单元的随机线性组合,然后将其应用于比较训练不同监督和自监督任务的各种网络的潜在表示。进一步分析了训练迭代的效果、比较了不同初始化的网络的效果、检查了网络深度和宽度的影响,并测量了深度视觉表示的可解释性的dropout和批标准化的影响。结果表明该方法能够揭示超出CNN模型和训练方法辨别能力之外的一些特征。
Apr, 2017
我们提出了一种通过检测神经网络中的信息流来分析预测的框架,该框架使用两个指标选择神经元,这些神经元既对网络输出产生巨大影响又能激活通用特征并比较不同度量筛选的神经元集合,从而提出了一种调查卷积神经网络内部注意机制的方法。
Jul, 2017
本研究介绍了 Network Dissection 方法,通过为深度视觉表示的单元提供标签来解释网络。该方法量化了CNN表示的可解释性,通过评估单个隐藏单元和一组视觉语义概念之间的对齐来识别最佳对齐,认定单位为人类可解释标签。研究发现,深度网络是比预期更加透明和可解释的,并且可用于提供CNN对图像的解释预测,以增强其可解释性,这是深度神经网络的重要属性,提供了对其分层结构的新的洞见。
Nov, 2017
本文提出了一种基于内部特征及可视化的方法,能够自动识别预先训练模型中与给定类相关的特征,以进行深度模型的解释和阐释,并且提出了一种针对deconvNet可视化操作引入的伪像问题的方法,同时还提出了一个专门用于视觉解释方法客观定量评估的数据集an8Flower。实验证明,该方法在MNIST、ILSVRC12、Fashion144k和an8Flower数据集上能够产生具有良好主题相关特征覆盖的详细解释。
Dec, 2017
本文提出了一种分析框架,旨在通过单元、对象和场景级别的可视化来理解生成对抗网络的内在表示,揭示其形成图像的因果关系,探究其结构选择对GAN学习的影响,提出了移除图像错乱因素的方法,并提供开源的理解工具。
Nov, 2018
研究了生成对抗网络(GANs)在内部如何表示我们的视觉世界,探讨了GANs结果中众所周知的人工痕迹是如何引起的,并展示了一个可视化和理解GANs的分析框架,旨在使研究者和从业者更好地理解其模型并进行实际应用,例如跨不同层,模型和数据集比较内部表示,定位和移除人工痕迹引起的单元,以及交互式操纵场景中的对象。
Jan, 2019
CNN Explainer是一个用于学习和检查卷积神经网络的交互式可视化工具,旨在解决初学者在学习CNNs时面临的关键挑战。该工具紧密集成了模型概述和动态视觉解释视图,使用户能够检查低级数学运算和高级模型结构之间的相互作用,并通过平滑的抽象级别转换。通过定性用户研究,发现CNN Explainer可以帮助用户更容易地了解CNNs的内部工作,并且使用起来引人入胜。
Apr, 2020
利用StylEx的生成模型,从StyleGAN的StyleSpace中选择解释性特征来为图像分类模型提供图像特定的解释和可视化。
Apr, 2021
本文介绍了一种新方法,使用条件生成对抗网络(GAN)通过信息传递学习卷积神经网络(CNN)的图像处理和预测,同时解决了如何将信息传递到GAN的挑战和如何有效地训练GAN的问题,该方法通过中间层的平均交互地图来表达CNN的结构,通过两种交互方案的对比得出了GAN可有效解释CNN从而提高图像处理的实现效率。
Jan, 2023