归纳解释的公理化聚合
本文介绍了可解释人工智能(XAI)的核心目标,即根据预测结果赋予机器学习模型特征的相对重要性。通过对功能归属的精确计算,研究表明该任务是非常重要的,并且之前提出的一些公理化聚合代表了过去研究中探讨的多个权力指数示例。此外,本文探讨了如何将一些广泛使用的权力指数用作特征重要性评分,并提出了满足可解释人工智能的新颖特征重要性评分。最后,文章对最知名的权力指数在提出的指标方面进行了深入分析。
May, 2024
通过统一八种流行的事后解释方法,本文揭示其共同的局部函数逼近目标,并提供了一种基于对黑匣子模型的忠诚度的方法来选择使用哪种方法,这不仅推进了这些方法的概念理解,还为实践中的使用提供了一个合理的方法。
Jun, 2022
本文提出了基于贝叶斯框架的黑盒模型解释方法,能够生成可靠的局部解释和其关联的不确定性,并且具有稳定性和高度一致性,可以快速地解决几个重要问题。通过实证研究,证明了该方法的有效性,并提高了解释的可靠性。
Aug, 2020
该论文旨在通过将不同方法或其变种的多个解释结合起来,系统地提高特征归因的质量,从而改进理解和验证复杂的机器学习模型的预测,该组合策略在多个模型架构和流行的特征归因技术中始终优于个别方法和现有基准。
Jun, 2024
本文比较两种解释系统(SHAP 和 LIME)的解释一致性,使用 14 种机器学习模型和 4 个数据集进行了实验,并得出两个结论:解释重要性的大小不重要;SHAP 和 LIME 重要性得分的相似度不能预测模型的准确性。此外,本文构建了一个名为 XAISuite 的开源库,为训练和解释模型提供统一的流程,并提出了一个通用框架来更好地解释机器学习模型并优化它们的性能。
Apr, 2023
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
Feb, 2024
介绍了一种用于 Boosted Tree 模型中的推导解释生成的新方法,称为树特定解释,可以在多项式时间内计算,实验证明该方法具有较高的可扩展性。
Sep, 2022