通过系统分析自然语言解释、结合归纳和演绎论证、和哲学科学中的科学解释现代观念,探讨可解释 AI(XAI)中的可解释性,并揭示自然语言解释的本质,功能,抽象维度和科学解释的含义。
May, 2022
介绍当前自然语言处理中可解释 AI 的现状和对主要解释的分类,探究生成和可视化解释的各种方式和操作,详细介绍了为 NLP 模型预测生成解释的可用操作和可解释性技术,并提出当前领域研究存在的差距和未来方向。
Oct, 2020
本文介绍了一些最流行的自然语言处理的深度学习可视化技术,并强调其可解释性和可解释性。
Apr, 2022
本篇综述研究了在 NLP 领域中各种 ExplainableAI 方法的模型透明度,解释能力和评估方法,并将其分为三个层面:输入层(词嵌入),处理层(模型内部运算),输出层(模型判定),并提出了未来的研究方向。
Oct, 2022
研究探讨了提高深度神经网络在自然语言处理(NLP)任务中的可解释性的各种方法,包括机器翻译和情感分析,并对术语 “可解释性” 及其各个方面进行了全面讨论。这项工作列举了与局部解释相关的各种方法,并将其分为三类:1)通过相关的输入特征解释模型的预测;2)通过自然语言解释进行解释;3)探查模型和单词表示的隐藏状态。
Mar, 2021
该研究通过一个基于随机抽样的实验,旨在检验基于显著性的事后可解释性方法在自然语言处理中的有效性,结果表明,人类往往会倾向于较少批判性地接受该类解释。
Nov, 2022
该研究是一项针对自然语言处理中的因果关系研究,旨在提供因果推理与语言处理的交叉研究概述,并介绍了文本统计学方面的挑战和机遇,以及如何利用因果推理来提高 NLP 模型的健壮性,公平性和可解释性。
Sep, 2021
该研究关注对语言模型的对比解释,证明对比解释在验证大型语法现象和改善对相互模拟性上是可量化地更好的,并且可以表征模型在各种语言生成决策中使用的输入令牌。
Feb, 2022
本文总结了解释性自然语言处理领域近年来集中收集人类注释的文本解释,将其分为三类 (highlights, free-text, and structured) 并对其注释方法进行整理,提出了现有采集方法的优点和缺点,给出了未来收集数据集的建议。
Feb, 2021
本研究介绍了学习基于人类解释的方法,并比较了使用不同解释类型和机制的不同方法,以帮助从业者选择特定用例的最佳方法。