该研究论文旨在提出一种强健的归因训练策略来提高深度神经网络的归因鲁棒性,针对近年来的研究表明,尽管这些模型被给予两张非常相似的图像,但其产生的归因图可能会有很大的不同,从而引发了对其可信度的质疑。这个方法通过引入保护模型归因图免受攻击的两个新的正则器来提高归因鲁棒性,并在多个数据集上超越了最先进的归因鲁棒性方法。
Dec, 2020
本文提出了一种基于 Convolutional Neural Networks 的特征评估方法用于比较 LRP 与 saliency map 两种模型解释方法的效果,依据实验研究结果,我们采用嵌入式特征的删减而非删减权重高的单词,并在文本分类的应用领域提供了一种可视化工具来辅助分析人员理解模型的结果。
Nov, 2018
探索透视医学影像分类应用的影响映射方法和度量评估,提出 EvalAttAI 度量已有度量的局限并进行改进,结果显示:使用 Vanilla Gradient 方法的贝叶斯深度神经网络通常更具可解释性。
Mar, 2023
本文研究探讨了解释型人工智能(XAI)中的一种常用方法 —— 层级相关性传递(LRP),发现新的应用方式能够更好地表征模型的推理,同时提高 LRP 的对象定位和类别区分性。
Oct, 2019
通过介绍层次相关传播方法,我们提出了一种新颖的深度可解释专利分类框架,用于提供人类可理解的预测解释。实验结果表明,对于各种评估指标,生成的解释突出了与预测类别相一致的重要相关词汇,使预测结果更易理解,并有助于推广复杂的 AI 专利分类方法在实际应用中的采用。
Oct, 2023
扩展対面层级相关传递方法以处理注意力层可以实现对大型语言模型进行准确且高效的非黑盒推理解释。
Feb, 2024
该研究分析了多种 BP 方法,提供了一种理论和实证的框架来评估新的和现有的 BP 方法的可信度,表明这些方法的解释与后续层的参数无关,测量了这些方法如何忽略后续层信息,发现 DeepLIFT 是唯一不受此限制的方法。
Dec, 2019
本研究使用层内重要性传播技术(LRP)首次探究其在自然语言处理(NLP)中的应用,特别是用于解释卷积神经网络(CNN)在主题分类任务中的预测结果,并通过多项实验验证 LRP 方法解释 CNN 预测的适用性,实验结果于最近的图像分类研究结果相符。
Jun, 2016
通过深度学习模型和数据归因方法,在多层网络上训练网络和探针集合,研究了概念形成的可靠性和内部表示中的人类可解释特征。
在黑盒神经网络的基础上,通过训练第二个网络来预测对预备的黑盒分类器的贡献,并将这些贡献以只显示与分类器相关部分的蒙版的形式提供,我们的方法可以直接在单个前向传递中生成非常明显的类特定蒙版。
May, 2022