关键词feature attribution methods
搜索结果 - 27
- ACL可解释性评估指标的可求解性
本文介绍了一个解释神经网络预测的特征归因方法,提出了一个问题:为什么我们不使用解释器(例如 LIME),而是基于解决度量来优化解释,如果度量值代表了解释质量呢?我们实现了解释器,并发布了 Python solvex 包,可用于文本、图像和表 - Doctor XAvIer:医患对话的可解释诊断与 XAI 评估
介绍了一种基于 BERT 的诊断系统 Doctor XAvIer,能够从病人和医生的对话中提取诊断所需数据并利用特征归因方法来解释预测结果。通过特征归因松弛曲线和其归一化曲线下面积来评价特征归因方法的性能,分析表明综合梯度比 Shapley - EMNLPThermostat:大规模 NLP 模型解释和分析工具集合
Thermostat 是一个大型的模型解释数据集和分析工具,拥有超过 200k 种来自不同 NLP 任务的杰出 state-of-the-art 模型决策解释,该数据集的编译时间超过了 1 年,但现在可以使社区节省计算时间,降低了冗余计算以 - 作为基础提取的翻译错误检测
使用先进的特征归属方法对最新的品质预估模型进行了探讨,发现训练有素的句子级别品质估测模型可以用于检测翻译错误,并提出了一种新的半监督词级别品质估测方法。该研究还将品质估测任务提出作为一个用于评估特征归属的新基准。
- 可解释机器学习科学研究的合成基准
通过发布一套合成数据集及相应的特征归因(feature attribution)算法基准测试库 XAI-Bench,可以有效评估和比较不同的特征归因方法,解决了在检验真实数据集上评估模型可解释性的难题。
- 特征归属方法的效果及其与自动评估得分的相关性
本研究第一次进行用户研究来证明特征归因图对于 ImageNet 分类和 Stanford Dogs 细粒度分类的辅助作用,在更难的分类任务上,特征归因图并没有帮助,相反会降低人工智能和人类团队的性能,并且自动特征归因图评估指标与实际人工智能 - 解释解释:深度网络的公理特征交互
本研究介绍了 Integrated Hessians,这是 Integrated Gradients 的扩展,用于解释神经网络中的成对特征交互;与以前的方法相比,Integrated Hessians 具有更快的速度和更好的性能,适用于各种