- EMNLP利用解释方法增强模型
在神经自然语言处理时代,有很多作品试图得出神经模型的解释。本文提出了一种利用解释方法和黄金理论来增强模型的框架,该框架通用性强,可以融合多种解释方法,并且在低资源环境中特别有效。
- 大语言模型时代的可解释性重新思考
可解释机器学习与大型语言模型相结合,评估解释方法并提出使用语言模型分析数据集和生成交互式解释的两个研究重点。
- 解读基于时间序列的 Transformer 模型以及对 COVID-19 感染的不同人群年龄组的敏感性分析
通过对深度学习时间序列模型进行解释,我们可以了解模型的行为和从原始数据中学习到的模式,以便进行实时决策。本研究使用最新的局部解释方法解释了最先进的时间序列模型,并通过收集三年的美国县级每日病例数据来验证了该方法的可行性。我们利用 13 个输 - 集成解释:可解释机器学习的统一方法
通过集成多角度解释的各种解释方法,本研究提出了一种新的适用于可解释性学习的方法,即集成解释方法。实验结果显示,集成解释方法更稳定,并且更符合人类经验和认知。作为应用,我们将集成解释方法用于特征选择,从而显著改善了相应学习模型的泛化性能。
- 关于时间序列分类的显著性解释的一致性和稳健性
对于时间序列分类,本文广泛分析了时间序列特征和时间归因的显著性解释模型的一致性和鲁棒性,并发现它们在各种程度上都存在一些缺乏一致和鲁棒性的问题。通过指出有缺陷的显著性解释模型,我们激励了对时间序列分类开发一致和鲁棒的解释方法。
- IJCAI可解释人工智能中的对抗攻击和防御:一项调查
该论文对 50 多篇与机器学习模型解释袭击和公正性度量有关的研究进行了简要综述,并讨论了如何防御攻击和设计稳健的解释方法。该论文提出了现有 XAI(可解释人工智能)不安全因素的列表,并概述了 Adversarial XAI(AdvXAI)的 - 使用策略蒸馏的深度强化学习模型反事实解释框架
该论文提出一种新颖的反事实解释框架,以解释黑盒 DRL 的决策,并在自动驾驶系统和 Atari Pong 游戏领域进行了多项实验。分析表明,所提出的框架为深层 DRL 的各种决策生成了可行且有意义的解释。
- FICNN:深度卷积神经网络解释框架
本文提出了一种卷积神经网络模型解释框架,指出了模型解释和解释任务的差异,定义了用于表征解释方法的六个因素,并讨论了现有解释方法和评估协议对它们的验证,以及提出了可能出现的研究问题。
- CVPR面向医学成像的视觉 Transformer 解释评价
本文研究了在医学影像学领域中,Vision Transformer (ViT) 解释方法的表现,证明了 Transformer 的逐层相关传播法胜过本地可解释的模型不可知性解释和注意力可视化方法,在准确和可靠地表示 ViT 已经学到了什么方 - 基于量化的后解释
本文提出了一种名为 “通过量化实现的事后解释(PIQ)” 的新方法,用于解释训练分类器所做的决策。通过向量量化将分类器的表示转换为离散的、类特定的潜在空间,类特定的编码簿起到瓶颈作用,迫使解释器专注于被分类器认为与做出预测相关的输入数据的部 - 深度视觉建模中可解释人工智能的调查:方法和度量
本文是可解释人工智能领域的第一篇调查研究,探讨了深度视觉模型解释方法和度量标准,提供了现有技术的分类组织,阐述了不同属性的度量方法,并就当前趋势、挑战和未来方向进行了深入讨论。
- ACL模型解释性方法忠实度度量的比较研究
在研究机器学习模型内部推理过程的解释方法越来越受到关注的今天,我们发现不同的忠诚度评估指标在比较不同的解释时显示出冲突的偏好,因此我们旨在对广泛采用的忠诚度指标进行全面而比较的研究,并引入两个评估维度:诊断性和时间复杂性,根据实验结果,我们 - EMNLP深度自然语言处理中脆弱解释的扰动输入
本文探讨了使用对抗性扰动攻击两种最先进的自然语言处理模型的可解释性方法,结果表明,即使对少量单词进行更改,这些方法也可能变得不稳定和不可信。
- 利用随机单元增强预训练模型进行神经监督域自适应
本文提出一种针对使用标准微调的神经迁移学习在特定于目标域的模式学习方面存在限制的问题的解决方案,即向预训练模型中引入归一化、加权和随机初始化的单元,以更好地适应目标域。实验证明,该方法在自然语言处理中的四项任务中表现出显著的改进。
- 通过引导概念学习实现可理解的卷积神经网络
该论文提出了一种带有附加概念层的 CNN 架构的引导学习方法,用于学习视觉特征和单词短语之间的关联,并通过优化预测准确性和特征表示的语义来学习与人类感知一致的概念,实验结果表明,所提出的模型可以在不牺牲准确性的情况下学习一致于人类感知的概念 - EMNLP通过输入边际化解释自然语言处理模型
本研究提出了一种解决现有解释方法所引发的超出分布问题的方法,其通过将每个标记边缘化来解释情感分析和自然语言推理等 NLP 模型的预测结果。
- 可解释的机器学习 -- 简史、现状和挑战
简述了解释性机器学习领域的发展历程,综述了最新的解释方法,讨论了挑战,提出了回归建模、基于规则的机器学习、敏感性分析、因果推断和社会科学等领域的启示。
- AAAI通过梯度加权类别激活映射实现可解释的语义分割
本文提出了一种名为 SEG-GRAD-CAM 的基于梯度的方法,扩展了广泛使用的 Grad-CAM 方法,用于解释语义分割中每个像素的相关性。
- 无需真实标注:统一解释方法评估
本文提出了一组用于评估神经网络解释方法客观性的标准,设计了四个度量标准来评估解释结果(即没有真实解释数据情况下),并对九种基准解释方法进行了广泛应用,从而提供了解释方法的新见解。
- 基于显著性的神经机器翻译词对齐解释
本文探讨了神经机器翻译模型在实现翻译时,虽然目标是学习对齐和翻译,但其对齐质量难以解释。作者提出了一种模型无关的解释方法,能够提高对齐质量。