本文提出了一种通用扰动方法(UPI)来干扰神经网络梯度解释,并通过数值结果支持了该方法的成功应用。
Nov, 2022
本文提出了一种基于反向传播梯度的神经网络不确定性度量方法,该方法可以有效地检测神经网络模型的不确定性,包括判断模型是否遇到了未知的输入,具有较高的检测准确性。
Aug, 2020
通过使用梯度检测对抗性和分布外样本,引入混淆标签来提高神经网络的有效表达,使模型不依赖真实标签来生成梯度。这种基于梯度的方法能够捕捉输入中的异常,击败先进的方法。
Jun, 2022
本研究提出一种通过对神经网络进行输入删减以生成细粒度贡献图的方法,该方法可以反映出全局重要性信息,并通过实验验证表明其效果优于其他方法。
Nov, 2019
通过深度学习模型和数据归因方法,在多层网络上训练网络和探针集合,研究了概念形成的可靠性和内部表示中的人类可解释特征。
Oct, 2023
本论文提出了一种基于因果关系视角的神经网络输入鲁棒性分析方法,提出了深度因果操纵增强模型(CAMA),解决了单因素影响的问题,并采用了数据增强和测试时间微调方法以提升模型鲁棒性。相较于基于判别模型的深度学习神经网络,该模型表现出了更好的抵抗未知操纵攻击的能力,并成功实现了操纵信息与其他潜在因素的解耦合表示。
May, 2020
本研究通过几何角度研究深度学习系统在分布改变的情况下的鲁棒性表现,发现神经网络在解决任务时处理问题不确定性的方式高度依赖于数据表示方法,而这会影响学习者的几何和复杂性。此研究揭示了理解深度学习中建筑归纳偏差对于解决公平性、鲁棒性、和泛化性非常重要。
Apr, 2021
该研究提出了一种可调整人工神经网络感知特定人工定义概念的方法来理解和调试该神经网络模型,并在合成数据集和 ImageNet 数据集上对其进行了测试。
Mar, 2023
我们提出了一种通过检测神经网络中的信息流来分析预测的框架,该框架使用两个指标选择神经元,这些神经元既对网络输出产生巨大影响又能激活通用特征并比较不同度量筛选的神经元集合,从而提出了一种调查卷积神经网络内部注意机制的方法。
Jul, 2017
本文旨在通过情感测量的方式来识别深度神经网络模型的弱点。通过三种情感测量指标:置信度、不确定性和惊奇度的比较,发现这些指标能够有效地通过对模型计算的分析来辨识出暴露 DNN 行为不当的输入。
Jan, 2019