- MambaLRP: 解释选择性状态空间序列模型
借助相关性传播的层次和 Mamba 架构的分析,我们提出了 MambaLRP 算法,以增强深度学习模型的可解释性,并取得了多个模型和数据集上的最先进解释性能。
- ACLTransformer 模型中的文本相似度解释
通过利用改进的解释,在语义相似性任务和模型中进行深入分析和语料库级别洞察,并使用分层相关传播(LRP)来验证结果解释的有效性,本研究探索了驱动语义相似性的特征相互作用。
- 基于惯性传感器的步态用户人口统计估计框架
通过深度学习和层次相关性传播 (LRP),识别重要变量以确定与年龄和性别相关的用户特征的方法,可以用于解释惯性信号识别用户年龄和性别的非线性机器学习模型。
- 无监督神经机器翻译的实证研究:NMT 输出、模型行为和句子贡献的分析
无监督神经机器翻译(UNMT)关注于提高无人翻译平行数据的 NMT 结果,但在突出其优势与分析除翻译准确性以外的输出方面,迄今为止还做得很少。我们聚焦于三种非常不同的语言,法语、古吉拉特语和哈萨克语,并使用不同程度的监督来训练双语 NMT - 分层反馈传播
该研究介绍了一种名为层次反馈传播 (LFP) 的新型训练方法,利用可解释性、具体而言是层次相关传播 (LRP),为神经网络预测器中的个别连接分配奖励,以其对解决给定任务的贡献为基础。与传统的梯度下降方法不同,LFP 在不需要梯度计算的情况下 - 自编码器的分层相关传递解锁
我们提出了一个快速的可解释性解决方案,通过深度泰勒分解框架扩展层级相关传播方法,引入了一种新的验证技术,与基线方法进行比较,在缺少基础真实数据的情况下突出了所提出的可解释性解决方案的计算和质量方面的优势。
- AAAI通过端到端解释深入理解概念瓶颈模型
本文研究对于 Concept Bottleneck Models(CBMs)中的输入特征与概念向量之间的关联性,以及如何使用 Layer-wise Relevance Propagation(LRP)、Integrated Gradient - 针对地球系统变异应用的 Echo State Networks 分层相关性传播
本文介绍如何使用层次相关传播技术和回声状态网络模型来提高模型可解释性,并使用海温异常来预测厄尔尼诺南方涛动现象,可以应用于时序预测和图像分类。
- 数据集广泛 XAI 的软件:从本地解释到全局洞见,使用 Zennit,CoRelAy 和 ViRelAy
本研究介绍了三个面向科学家的软件包,以利用归因方法和其他方法探索模型的推理方式,提供解释人工智能的标准化实现方案。
- 通过相关路径解释图神经网络的高阶行为
本研究展示了一种新颖的解释方法 GNN-LRP,通过高阶扩展和嵌套属性方案来提取与预测相关的输入图形的漫游集合,可为图神经网络和情感分析等提供实用洞见。
- 面向知识追踪的可解释深度学习模型
本文通过使用层级相关传播方法(Layer-wise Relevance Propagation, LRP)对深度神经网络的知识追踪模型进行解释,以提高模型的可解释性,并验证了分别从问题层面和概念层面计算相关评分的可行性,从而推进深度学习的知 - 利用 LRP 最佳实践解释神经网络决策
本文研究探讨了解释型人工智能(XAI)中的一种常用方法 —— 层级相关性传递(LRP),发现新的应用方式能够更好地表征模型的推理,同时提高 LRP 的对象定位和类别区分性。
- ICCV使用 Softmax 梯度层级相关传播解释卷积神经网络
该论文提出了一种新的图像分类解释方法 SGLRP,可以成功地定位和归因于目标对象的分类,实证表明它比现有的基于 LRP 的方法更有效。
- 通过对比反向传播理解 CNN 的个体决策
本研究探讨了 DeConvNets、vanilla Gradient Visualization 和 Guided Backpropagation 等基于反向传播的方法,提出了一种基于 Layer-wise Relevance Propag - NIPS深入探究深度学习模型:基于归因的 TextCNN 解释
本文提出了一种基于 Convolutional Neural Networks 的特征评估方法用于比较 LRP 与 saliency map 两种模型解释方法的效果,依据实验研究结果,我们采用嵌入式特征的删减而非删减权重高的单词,并在文本分 - 解释和说明用于音频信号分类的深度神经网络
本文旨在探究如何使用 layer-wise relevance propagation 技术在音频领域内进行深度神经网络的解释性分析,并使用一个英语语音数字数据集对于语音数字和演讲者性别进行分类任务,通过对 LRP 得到的相关性分数进行假设 - EMNLP情感分析中解释循环神经网络预测
本文提出了将 Layer-wise Relevance Propagation 扩展到递归神经网络的方法,并应用于五分类情感预测任务中的双向 LSTM 模型,其结果 qualitatively and quantitatively 均优于之 - ACLNLP 中非线性分类器预测解释
本研究使用层内重要性传播技术(LRP)首次探究其在自然语言处理(NLP)中的应用,特别是用于解释卷积神经网络(CNN)在主题分类任务中的预测结果,并通过多项实验验证 LRP 方法解释 CNN 预测的适用性,实验结果于最近的图像分类研究结果相 - 可解释的深度神经网络用于单次试验的脑电波分类
本研究探讨利用 DNNs 和 LRP 应用于 EEG 数据分析,发现 DNNs 在分类准确性上具有可比性,并且通过 LRP 的热图,可以提供神经活动高分辨率的评估,这是 DNN 在神经科学应用中被限制使用的可解释性不足的潜在解决方案。
- 针对具有本地重正化层神经网络的逐层相关性传播
本文提出了一种扩展分层关联传播到具有局部重新规范化层的神经网络的方法,并在 CIFAR-10、Imagenet 和 MIT Places 数据集上评估了该方法的性能。