本研究旨在对四种基于梯度的属性方法进行分析,并在图像和文本分类领域的多个数据集上测试这些方法,提出了一种新的评估指标Sensitivity-n,并在改进一些方法后建立了一个统一框架,使这些方法能够进行直接比较和更容易实现。
Nov, 2017
通过公理归因神经网络的视角,我们提出了经典鲁棒优化模型的训练目标,旨在实现鲁棒的集成梯度归因。实验结果表明了我们方法的有效性,并表明需要更好的优化技术或更好的神经网络架构来进行鲁棒的归因训练。
May, 2019
本研究提出基于期望梯度的新型特征归因方法,并以此为基础推导了新的可调控归因先验。实验结果表明,该方法在图像、基因表达和医疗数据集中均具有较好的性能,可以有效优化模型的解释性能。
Jun, 2019
该论文研究应用于感知任务的深度网络的归因问题,并提出了一种名为“Blur Integrated Gradients”的新技术,该技术比其他方法具有多个优点,可以准确识别物体并产生一致且干净的解释,适用于图像,视网膜病变和音频事件等多个任务。
Apr, 2020
本文提出了一种新的归因方法Relative Sectional Propagation(RSP)来对深度神经网络的输出进行全面分解,该方法可以克服激活神经元的非抑制性质,以更清晰的类别区分性和详细的激活神经元说明来分解DNNs的预测结果。
Dec, 2020
本文介绍了解释深度神经网络的渐变解释性方法,讨论了这些方法如何评估其鲁棒性以及鲁棒性在产生有意义的解释方面的作用,并探讨了渐变方法的局限性和选择解释方法之前应该考虑的最佳实践和属性。
Jul, 2021
本文首次将诸多启发式设计的14种归因方法的核心机制,统一为一个数学系统,证明这14种方法的归因得分都可以重构为两种效应的加权求和,即每个输入变量的独立效应和输入变量之间的相互作用效应,并提出3个公平分配效应的原则来评价这14种归因方法的忠诚度。
Mar, 2023
本研究介绍了一种称为Integrated Gradients方法的基线归因方法和其四个公理特征,用以揭示神经网络及其他机器学习模型的内部工作机制。
Jun, 2023
本研究旨在检验特征归因法在不同深度学习架构模型间的泛化能力,以及探索归一化的特征解释方法在提高机器学习应用的可解释性和信任度方面的潜力。
Jul, 2023
通过提出的MFABA算法,该研究论文证明了其在解释深度神经网络方面的卓越效果,并通过大规模实验表明其比其他算法快101.5142倍。
Dec, 2023