本文评估了不同的解释方法及其对神经网络和文本分类任务的影响,发现梯度基础的解释方法在不同任务及神经网络结构中表现最佳。
Sep, 2020
利用视觉 - 语言模型识别视觉分类任务中的基于语言的描述器,通过在图像和文本之间的预训练联合嵌入空间进行线性组合,得出每个单词与基于视觉的分类器的关联度权重,从而使非专家人员能够以非平凡水平完成专业医学任务。
Nov, 2023
本文提出了一个新的生成式解释框架,学习同时进行分类决策和生成细粒度解释,实验证明该方法可以生成简明的解释,超过所有基线系统。
Nov, 2018
提出了一种新方法,即检测特征交互来构建分层解释,从而可视化不同层级中单词和短语的组合方式,帮助用户理解黑匣子模型的决策过程,并在 LSTMs、CNNs 和 BERTs 三个神经文本分类器的两个基准数据集上进行了评估,通过自动和人工评估实验证明此方法提供的解释既忠实于模型,又易于解释。
Apr, 2020
本文探讨了已有的文本分类数据集不能准确反映真实应用场景的问题,并提出了两点解决方案:一是在文本分类数据集中增加可解释性的评价指标,二是通过人类的应用场景与判断加强数据集的教学力度。
Nov, 2022
SelfExplain 是一种新型的自解释模型,通过基于短语的概念解释文本分类器的预测,在不降低性能的同时增加可解释性,实验结果表明 SelfExplain 的解释能力足以促进模型的置信度。
Mar, 2021
该研究提出了一种使用新方法训练的深度超网络来生成可解释的线性模型的方法,以保留黑匣子深度网络的准确性并提供自由的可解释性,而需要与黑匣子深度模型相同的运行时和内存资源,实现了实用性,实验结果表明,该可解释的深层网络在表格数据上与最先进的分类器一样准确,且在实际预测中也具有与最先进的解释技术相当的解释能力。
May, 2023
提出基于神经网络和聚类模型的可解释 AI 框架,能够对数据的簇分配进行高效和可靠的解释,并且从分析数据和表示中提取新的见解。
Jun, 2019
本文以科学哲学理论作为分析视角,研究解释性方法在神经网络性能评估中的应用,并发现解释性方法的实用性依赖于人类领域知识和理解推理能力。本研究得出结论,基准测试解释性方法是迈向可信人工智能和机器学习的中心任务。
Aug, 2022
机器学习结果的可解释性需要建立信心;对权重进行解释的方法不足以用简单的术语解释决策;可解释的属性系统提供了术语解释,但表现不如不可解释的机器学习方法;本研究侧重于解释性指标的重要性,提出了两种能够提高性能的方法:第一种方法引入可解释性与不可解释性流程相结合,并提出了一个刻画决策可解释性的指标;第二种方法比较了用于估计系统中神经网络效果的经典指标,并提出了一种新的效果最佳的指标;本文展示了新方法的结果和手写数据集的示例。
Jun, 2024