CVPRNov, 2015
通过替换进行滤波器解码以理解学习的 CNN 特征
Understanding learned CNN features through Filter Decoding with Substitution
Ivet Rafegas, Maria Vanrell
TL;DR本文提出了一种新的滤波器替换方法来解决卷积神经网络中的内部表示问题,并将其中任意 CNN 单个神经元直接可视化到图像空间中的第一层滤波器。
Abstract
In parallel with the success of cnns to solve vision problems, there is a
growing interest in developing methodologies to understand and visualize the
internal representations of these networks. How the responses of a trained CNN
encode the →
发现论文,激发创造
卷积神经网络如何看待世界 - 卷积神经网络可视化方法综述
本文综述了通过 Activation Maximization、Network Inversion、Deconvolutional Neural Networks (DeconvNet) 以及 Network Dissection 等可视化手段实现 CNN 可解释性的方法,并探讨了这些方法在网络设计、优化和安全增强等领域中的实际应用价值。
Apr, 2018
可解释性卷积神经网络
本文提出了一种方法,将传统的 CNN 转换为可解释的 CNN,以澄清 CNN 高卷积层中的知识表示。在可解释的 CNN 中,高卷积层中的每个滤波器表示某个物体部分,无需任何部件或纹理的注释就可以在学习过程中自动分配。实验表明,可解释的 CNN 中的滤波器比传统 CNN 中的滤波器更具有语义意义。
Oct, 2017
利用自然前像可视化深度卷积神经网络
本文通过自然感知前像的概念,运用逆向重建,激活最大化和漫画创作等多种可视化技术来研究浅层和深度学习表示,提出了一种正则化能量最小化的框架,可以更准确地反演 HOG 表示,并有效应用于卷积神经网络,其中发现 CNN 的多个层可以保留关于图像的各种位置和光度变换的信息。
Dec, 2015
深度可视化理解神经网络
该研究介绍了两个工具,用于可视化和解释深度卷积神经网络的计算过程,加速深度学习领域的发展。这些工具包括可视化神经网络在图像或视频处理过程中每一层产生的激活,并通过映射到图像空间进行的规则优化来可视化每一层的特征。
Jun, 2015
可视化和比较卷积神经网络
该研究试图通过两个方面对 CNN 的内部表示进行探究,即可视化不同层级所构建的表示空间中的补丁和可视化每个层中保留的视觉信息,进而比较不同深度的 CNN 的优势。
Dec, 2014