- 从特征可视化到视觉电路:对抗模型操控的效果
通过提出一种名为 ProxPulse 的新攻击方法,揭示了视觉电路的可操作性问题,这为深度神经网络的机械解释性提供了新的研究方向。
- 神经网络中的半空间特征学习
神经网络能够学习复杂的线性特征,通过深层线性门控网络(DLGN)以不同于传统线性网络和 ReLU 网络的方式来实现特征的非线性学习,并通过学习输入空间中包含目标函数平滑区域的半空间来实现特征学习。
- 特征强调:揭示自然图像中的哪些特征应对
解释可视化图像中神经网络特征响应的位置和内容的新方法:feature accentuation。
- 语言模型的流利梦境
采用进化提示优化算法来实现语言模型的流畅梦幻,从而同时最大化所选内部特征和提示流畅性之间的帕累托前沿。
- 通过渐变弹弓操控特征可视化
本文研究了 Deep Neural Networks (DNNs) 通过 Activation Maximization (AM) 方法学习的概念的语义特性,并介绍了一种在不改变模型架构或显著影响模型决策过程的情况下操纵特征可视化的新方法。 - MMNeuroInspect: 基于神经元的调试框架通过条件可视化
通过引入神经元为基础的调试框架 NeuroInspect,该研究提供了深度学习模型的人类可解释的调试方法,其中包括对错误的因果解释、特征可视化和假相关性缓解,从而实现了对 DL 模型错误的调试和改进。
- 有针对性的背景去除创造了可解释的特征可视化
本研究利用背景删除技术作为强健训练的方式,探索性地修改了训练过程,从而提高了黑盒子机器学习模型特征可视化的解释能力,并验证了此假设通过四种不同的训练方法。图像的特征可视化结果表明,使用背景删除图像比使用未修改数据的模型的改进更为显著。
- 使用大小约束优化解锁更深网络的特征可视化
MACO 是一种简单的方法,通过优化相位谱并保持幅度恒定以确保生成的解释属于自然图像空间,从而解决了针对更深的神经网络进行可解释图像生成的问题。
- 应用多示例学习和基于梯度的解释改进全切片成像辅助诊断工具的可解释性
在医学领域,深度学习方法已得到广泛应用。而深度学习方法面临的下一个重要挑战是解释性,即如何解释模型的决策。本文针对整个切片图像分类的情境,提出了一种基于梯度法、特征可视化和多实例学习等方法的解释性方法,旨在解释如何基于瓦片级别的评分做出决策 - IJCAI热度与模糊:对抗性示例的有效快速防御
结合特征可视化和输入修改的简单防御方法,能够应用于各种预训练模型,可对付对神经网络造成的敌对攻击。本文在 ImageNet 数据集上以 VGG19 为例,通过新的评估指标验证了该防御方法的有效性。
- 透過特徵視覺化理解神經網絡:一項調查
本章介绍了一种神经科学方法 ——Activation Maximization(AM),利用机器学习技术综合推理神经元的首选刺激,以大力激发人造或生物大脑中的单个细胞或细胞组,并讨论了现有 AM 技术的概率解释和其在网络调试和解释方面的应用 - 卷积神经网络中用于图像分类的卷积核设计
通过对卷积核的形状与特征表示学习之间的关系的探究,结合实验结果和模拟视觉系统的观察,提出了一种新的卷积核形状设计方法,该方法在 ILSVRC-2012 数据集上减少了模型参数和计算时间,在 CIFAR-10/100 数据集上也优于现有的模型