May, 2024

模型解释性与可解释性:朝着预测模型的透明度创造进发

TL;DR在分析建模中,可解释人工智能(XAI)有一个对应的概念,我们称之为模型解释性。我们在预测模型的上下文中处理模型解释性问题,并通过执行和比较四种不同的预测方法,应用当前文献中所知的最佳解释技术来分析一家信用卡公司的贷款数据集,以确定特征重要性(FI)(静态案例),并最终在连续和分类变量的何种预测场景下交叉验证 FI 集合的准确性(动态案例)。我们发现了静态和动态案例之间 FI 识别的不一致性,并总结了模型解释性的最新进展,并建议进一步研究以推动该领域。