研究探讨了提高深度神经网络在自然语言处理(NLP)任务中的可解释性的各种方法,包括机器翻译和情感分析,并对术语 “可解释性” 及其各个方面进行了全面讨论。这项工作列举了与局部解释相关的各种方法,并将其分为三类:1)通过相关的输入特征解释模型的预测;2)通过自然语言解释进行解释;3)探查模型和单词表示的隐藏状态。
Mar, 2021
本篇综述研究了在 NLP 领域中各种 ExplainableAI 方法的模型透明度,解释能力和评估方法,并将其分为三个层面:输入层(词嵌入),处理层(模型内部运算),输出层(模型判定),并提出了未来的研究方向。
Oct, 2022
本文介绍了一些最流行的自然语言处理的深度学习可视化技术,并强调其可解释性和可解释性。
Apr, 2022
本文探讨大型语言模型(LLMs)的可解释性领域,强调了增强 LLMs 可解释性的必要性,重点关注预训练的基于 Transformer 的 LLMs,如 LLaMA,以及改善模型透明度和可靠性的解释性方法和评估方法的分类与讨论。
Jan, 2024
对大型语言模型的解释技术进行分类和总结,并讨论了这些技术在训练范式、生成局部解释和全局解释方面的应用以及评估指标、调试模型和提高性能的挑战和机会。
Sep, 2023
本篇论文探讨了在自然语言处理和推荐任务中推断高质量执行操作和使解释具有可操作性的两个基本挑战,并通过证明解释性不以在两个应用中展示的卓越表现为代价的框架将人工智能应用实践的承诺变为现实。
May, 2022
本文介绍了机器学习和深度学习算法在科学和工业领域中的应用及其不透明性问题,提出了解释性学习算法和可视化方法的重要性。
Sep, 2019
介绍当前自然语言处理中可解释 AI 的现状和对主要解释的分类,探究生成和可视化解释的各种方式和操作,详细介绍了为 NLP 模型预测生成解释的可用操作和可解释性技术,并提出当前领域研究存在的差距和未来方向。
Oct, 2020
本文介绍了如何使用机器学习模型解释文本分类的决策过程以及如何生成基于词向量的文档表示方法。通过对两个不同类型的模型进行比较,表明卷积神经网络在可解释性方面的优势,也使得它更具有人类可理解性,并有潜力应用于其他领域。
Dec, 2016
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017