可解释机器学习科学研究的合成基准
我们提出了一种新的评估方法,用于基准测试最先进的可解释 AI 归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于 XAI 方法输出的更深入的洞察。
Aug, 2023
该研究论文介绍了一个旨在改善复杂机器学习模型可解释性的解释性人工智能(XAI)领域的发展趋势,并提出了一个初始的基准测试平台 EXACT,该平台结合了各种基准数据集和新颖的性能评估指标,为评估 XAI 方法提供了一个标准化的基础。
May, 2024
研究了在地球科学的问题中应用神经网络时,可用的理论解释非常有限。因此,该研究提出了一种基于可加分离函数的框架,用于生成已知先验归因地面真实性的回归问题的归因基准数据集,并使用该数据集进行有关 XAI 方法的客观评价,以提高模型信任度和帮助发现新的科学。
Mar, 2021
这篇论文探讨解释的可解释人工智能(XAI)方法,特别是 SHapley 加性解释和局部可解释模型无关解释等两种使用广泛的方法,提出一个框架来解释它们的输出,强调它们的优缺点。
May, 2023
本文探讨不同非线性分类场景下,解释性人工智能模型的表现,并通过一系列实验测试发现,当前流行的 XAI 方法往往无法显著提高准确性基线和边缘检测方法,甚至在不同模型结构下产生非常不同的解释,存在误解的风险。
Jun, 2023
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020
介绍了 OpenXAI—— 一种全面的且可扩展的开源框架,用于评估和基准测试事后解释方法。 OpenXAI 包括一个灵活的合成数据生成器和各种真实世界数据集,预先训练的模型和最先进的特征归因方法的集合,以及评估解释方法准确性、稳定性和公平性的 22 种定量度量的开源实现,并且该框架还包含公开的 XAI 排行榜,用于基准测试解释方法。
Jun, 2022
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
本文介绍了可解释人工智能(XAI)的核心目标,即根据预测结果赋予机器学习模型特征的相对重要性。通过对功能归属的精确计算,研究表明该任务是非常重要的,并且之前提出的一些公理化聚合代表了过去研究中探讨的多个权力指数示例。此外,本文探讨了如何将一些广泛使用的权力指数用作特征重要性评分,并提出了满足可解释人工智能的新颖特征重要性评分。最后,文章对最知名的权力指数在提出的指标方面进行了深入分析。
May, 2024