我们提出了一种修改后的解释方法,通过修剪不同层的相关传播来降低噪音,同时集中关注最重要的特征,从而提高深度神经网络输出的解释性。
Apr, 2024
本文提出了一种扩展分层关联传播到具有局部重新规范化层的神经网络的方法,并在 CIFAR-10、Imagenet 和 MIT Places 数据集上评估了该方法的性能。
Apr, 2016
我们提出了一个快速的可解释性解决方案,通过深度泰勒分解框架扩展层级相关传播方法,引入了一种新的验证技术,与基线方法进行比较,在缺少基础真实数据的情况下突出了所提出的可解释性解决方案的计算和质量方面的优势。
Mar, 2023
本文介绍一种基于输入变量对深度神经网络分类决策进行分解的技术,以提高其透明度和可解释性。
Nov, 2016
通过介绍层次相关传播方法,我们提出了一种新颖的深度可解释专利分类框架,用于提供人类可理解的预测解释。实验结果表明,对于各种评估指标,生成的解释突出了与预测类别相一致的重要相关词汇,使预测结果更易理解,并有助于推广复杂的 AI 专利分类方法在实际应用中的采用。
Oct, 2023
本文研究探讨了解释型人工智能(XAI)中的一种常用方法 —— 层级相关性传递(LRP),发现新的应用方式能够更好地表征模型的推理,同时提高 LRP 的对象定位和类别区分性。
Oct, 2019
本文提出了将 Layer-wise Relevance Propagation 扩展到递归神经网络的方法,并应用于五分类情感预测任务中的双向 LSTM 模型,其结果 qualitatively and quantitatively 均优于之前工作中使用的基于梯度的方法。
Jun, 2017
本文将 Layer-wise Relevance Propagation 算法应用于深度卷积神经网络和 Fisher Vector 分类器,通过可视化热图比较两种分类器的图像感知和预测策略。作者演示了在 LRP 过程中不同分解截止点选择对测试图像热图分辨率和语义的影响。
Mar, 2016
本研究使用层内重要性传播技术(LRP)首次探究其在自然语言处理(NLP)中的应用,特别是用于解释卷积神经网络(CNN)在主题分类任务中的预测结果,并通过多项实验验证 LRP 方法解释 CNN 预测的适用性,实验结果于最近的图像分类研究结果相符。
Jun, 2016
该论文提出了一种新的图像分类解释方法 SGLRP,可以成功地定位和归因于目标对象的分类,实证表明它比现有的基于 LRP 的方法更有效。
Aug, 2019