NxPlain:一款用于发现潜在概念的基于 Web 的工具
该研究提出了 ConceptX 人在循环框架,用于解释深度语言模型中预训练隐藏表达空间,并提供自动生成的基于语言本体论的概念注释,以表示这些模型中学习到的隐含概念,从而帮助注释人员标记模型中的偏见。
Nov, 2022
研究探讨了提高深度神经网络在自然语言处理(NLP)任务中的可解释性的各种方法,包括机器翻译和情感分析,并对术语 “可解释性” 及其各个方面进行了全面讨论。这项工作列举了与局部解释相关的各种方法,并将其分为三类:1)通过相关的输入特征解释模型的预测;2)通过自然语言解释进行解释;3)探查模型和单词表示的隐藏状态。
Mar, 2021
TX-Ray 利用计算机视觉的可解释性原理中的神经元输入偏好可视化方法来分析自监督或有监督的 NLP 模型如何在预训练中构建知识抽象并将其传递到新领域或在有监督的微调中进行适应,由于这种方法可以表达神经元的特征偏好分布以量化细粒度的知识传递或适应,因此可以辅助人类分析。结果表明,TX-Ray 基于修剪可以改善测试集泛化性能,并且可以揭示自监督的早期阶段如何自动学习语言抽象,例如词性。
Dec, 2019
通过训练因果关系 (CXPlain) 模型,可以更准确和更快速地解释和评估机器学习模型的特征重要性和不确定性,从而帮助理解和验证机器学习模型的决策过程。
Oct, 2019
通过引入潜在概念归因方法(LACOAT),该研究针对深度学习模型的预测提供了基于潜在概念的解释,解决了由于词语离散性和缺乏语境信息而导致的以往解释的不充分问题。
Apr, 2024
自然学习(NL)算法通过解析性和可解释性的机器学习带到了极限水平。通过提取很少的特征和语义原型,NL 在多个领域表现出了令人印象深刻的结果,包括对癌症和分类数据集的高准确率和高性能与其他方法相媲美。
Apr, 2024
本文提出一个可视化分析工具 DeepNLPVis,采用基于互信息的量化方法对深度自然语言处理模型进行统一理解,通过多层次的可视化(语料库级别、样本级别和单词级别)支持从整体到个别的分析,通过两个分类任务的案例研究和模型比较,证明了 DeepNLPVis 能够帮助用户识别潜在问题并做出知情决策。
Jun, 2022
本文提出了一个完整的框架,将基于概念的解释性方法扩展到 NLP 领域, 提出了一种后期解释性方法,从预训练模型的隐藏层激活中提取具有预测高水平特征(概念),优化具有高影响力的特征的存在,设立了多种评估指标。在真实和合成任务上的广泛实验表明,与基线相比,我们的方法在预测影响、可用性和忠实度方面都取得了卓越的结果。
May, 2023
通过对 NLP 模型中的观察段或语义相关的词群进行分析,将解释性摘要方法更加灵活化,并通过分析不同段落的虚假或肯定例子,引入了 NLP 模型的根本原因分析方法。最后,通过对 Yelp 评论数据集的实验证明,利用单词和 / 或信息中的组 / 集群结构可以帮助解释 NLP 模型的决策,并可用于评估模型对性别,语法和单词含义的敏感性或偏差。
Mar, 2023