针对信用风险评分的全球性解释
本文提出了一种支持决策者做出公正的借贷决策的框架,其中包含可解释的机器学习模型、可交互的可视化工具以及三种类型的解释。该框架通过提供全局与个性化的解释获得了 FICO 的认可奖。
Jun, 2021
本研究提出了一种名为 GALE 的机器学习模型,旨在提供有关模型全局决策过程的洞见。结果表明,聚合方法的选择很重要,我们的提出的聚合方法能更好地代表特征如何影响模型的预测,并通过识别区分性特征提供全局洞见。
Jul, 2019
通过运用博弈论、局部特征交互作用效应和全局模型结构,我们实现了对基于树的机器学习模型的高可解释性,应用于三个医疗机器学习问题,在透露模型全局结构的同时保持其基本特征,识别出美国人口中高强度但低频率的非线性死亡风险因素,突显具有共同危险特征的明显人口亚组,识别出慢性肾脏疾病危险因素之间的非线性交互作用效应,并监测在医院部署的机器学习模型(Identifying factors leading to model's performance decay over time)
May, 2019
通过利用生成式模型和因果影响信息论度量,我们开发了一种方法,用于生成关于黑盒分类器的因果事后解释,方法可以学习低维度的数据表示。我们的方法学习全局和局部的解释,适用于任何具有类概率和梯度的分类器,并且不需要标记的属性或因果结构的知识。
Jun, 2020
本文提供了一种新颖的量化指标框架,用于解释分类器和回归模型的预测结果,旨在提高人工智能系统的透明度和可信度。应用公开数据集,展示了这些指标如何更全面地理解模型预测,并在决策者和利益相关者之间促进更好的沟通,从而增加人工智能系统的整体透明度和问责度。
Feb, 2023
本研究是关于解决传统的 logistic 回归模型的精度和可解释性问题,引入了一种具有可解释性的选择性神经网络模型,主要应用于信贷风险评估领域,同时本文也在研究中比较了各种模型的优劣,得出结论,浅层神经网络能更好地提升精度而不显著牺牲解释性。
Sep, 2022
使用黑盒子分类器预测信用申请,使用反事实解释单个预测。 通过 HELOC 贷款应用数据集的实验表明,我们的贡献优于基线对策生成策略,导致更小更易于解释的反事实。
Nov, 2018