语言模型的可视化与解释
研究探讨了提高深度神经网络在自然语言处理(NLP)任务中的可解释性的各种方法,包括机器翻译和情感分析,并对术语 “可解释性” 及其各个方面进行了全面讨论。这项工作列举了与局部解释相关的各种方法,并将其分为三类:1)通过相关的输入特征解释模型的预测;2)通过自然语言解释进行解释;3)探查模型和单词表示的隐藏状态。
Mar, 2021
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
探讨了交互式可视化在解释自然语言处理模型中的作用、与目标用户和 NLP 管道的关系,提供了几个使用 XNLP 可视化的具体示例,并指出了该领域的广泛研究机会。
Jan, 2023
本篇综述研究了在 NLP 领域中各种 ExplainableAI 方法的模型透明度,解释能力和评估方法,并将其分为三个层面:输入层(词嵌入),处理层(模型内部运算),输出层(模型判定),并提出了未来的研究方向。
Oct, 2022
本文全面调研了针对词嵌入、序列建模、注意力模块、Transformer、BERT 以及文档排名的机器学习和自然语言处理研究的可解释性和解释性方法,最后提出了未来的研究方向。
Dec, 2022
介绍当前自然语言处理中可解释 AI 的现状和对主要解释的分类,探究生成和可视化解释的各种方式和操作,详细介绍了为 NLP 模型预测生成解释的可用操作和可解释性技术,并提出当前领域研究存在的差距和未来方向。
Oct, 2020
本文提出一个可视化分析工具 DeepNLPVis,采用基于互信息的量化方法对深度自然语言处理模型进行统一理解,通过多层次的可视化(语料库级别、样本级别和单词级别)支持从整体到个别的分析,通过两个分类任务的案例研究和模型比较,证明了 DeepNLPVis 能够帮助用户识别潜在问题并做出知情决策。
Jun, 2022
该篇论文综述了深度神经网络在机器学习中的应用,针对一些需要保证安全性的决策(如控制系统和医疗应用),介绍了当前解释性人工智能(XAI)领域的研究,探究和解释 DNNs 内部和整体行为的方法。
Feb, 2021