该研究介绍了两个工具,用于可视化和解释深度卷积神经网络的计算过程,加速深度学习领域的发展。这些工具包括可视化神经网络在图像或视频处理过程中每一层产生的激活,并通过映射到图像空间进行的规则优化来可视化每一层的特征。
Jun, 2015
本文通过自然感知前像的概念,运用逆向重建,激活最大化和漫画创作等多种可视化技术来研究浅层和深度学习表示,提出了一种正则化能量最小化的框架,可以更准确地反演HOG表示,并有效应用于卷积神经网络,其中发现CNN的多个层可以保留关于图像的各种位置和光度变换的信息。
Dec, 2015
通过深度可视化技术,可以更好地了解深度神经网络。本文介绍了一种算法,通过合成每种类型的图像来清晰地揭示神经元的多重特征,并引入正则化方法使可视化结果更具解释性和清晰性。
Feb, 2016
研究了深度学习方法面临的可解释性困境,提出了一种叫做“深度视觉解释”的框架,通过可视化技术来识别和暴露深度学习模型性能行为的假设,以提高模型的可解释性和可调试性,并展示了初步的可解释性应用实验结果。
Nov, 2017
在解释性人工智能方面,通过激活最大化可视化单元响应是一种被广泛应用的方法,而此研究测试了此方法是否能有效的帮助人们预测激活单元的变化,结果表明其在一定程度上有帮助,但并没有明显优势。
Jun, 2021
研究神经网络的预测可视化解释,并评价这些解释的好坏。其中,绝大多数评价方法使用ImageNet-1k和人工检测评估结果,结果表明评价方法之间缺乏一致性。同时,解释的稀疏性对评价方法的表现具有显著影响。
Feb, 2023
本研究旨在系统研究各种基于图像的生成模型,通过在人类感知上度量图像逼真度,发现现有指标与人类感知存在巨大差距;同时也发现现有指标无法适当检测到模型对数据的记忆现象;针对这些问题,我们提出了一种更可靠的特征提取器,并且释放了全部生成的图像数据集、人类评估数据以及计算 16 种公共指标的模块化库,以便更好地促进生成模型的发展和评估。
Jun, 2023
最新的视觉反事实解释方法利用深度生成模型的能力合成了高维度图像的新示例,本研究提出了一个系统的、量化的评估框架以及一组最小的指标,探索了最新的基于扩散的生成模型在自然图像分类的反事实解释方面的关键设计选择的效果,并通过产生数千个反事实解释来对各种复杂度、准确性和鲁棒性的分类器进行了一系列消融实验,为未来反事实解释方法的进一步改进和发展提出了多个方向,通过分享研究方法和解决计算挑战的方法,为该领域的研究人员提供了宝贵的指导,促进了对反事实解释的评估的一致性和透明度。
Aug, 2023
提出了一种名为CAManim的XAI可视化方法,通过动画方式将基于CAM的网络激活图显示在所有层次上,从而有效地展示模型如何逐步达到最终层激活,不仅仅对模型进行定性评估,还提出了用于量化评估的新方法(ybROAD)。
Dec, 2023
解释可视化图像中神经网络特征响应的位置和内容的新方法:feature accentuation。
Feb, 2024