超越单一特征重要性的冰激凌
本研究提出一种新的基于 ICE 图的特征影响度量,可解释为类似于线性回归系数的模型无关,性能无关的特征影响度量,并介绍了 ICF 特征影响力的多样性,最后我们展示了这种实用性工具在几个现实世界的数据任务中的效用。
Sep, 2021
通过 VCEI 框架,在单个观测设置中对双变量系统进行因果发现,基于因果和机制的独立性原则,人为构造两个设置,通过核最大平均偏差将人为干预转化为一个凸优化问题,通过一系列实验表明 VCEI 方法是一种有竞争力的因果发现方法。
Nov, 2022
深度独立分量估计(DICE)是一种现代机器学习中用于特征工程提取的方法,通过期望最大化(EM)和马尔可夫链蒙特卡罗(MCMC)算法,我们提供了独立分量分析的新型潜变量表示,该方法还适用于非线性特征提取的流体方法,并讨论了如何实现条件后验和基于包络的优化方法,通过这种表示层次,我们统一了许多迄今为止不相关的估计过程,在数值实例上说明了我们的方法和算法,最后,我们总结了未来研究方向。
Jun, 2024
本文研究机器学习算法中普遍存在的可解释性方法,通过不同的解释方法应用到简单的模型中,发现不同之处并提出一种新的方法来比较不同解释间的差异。
Jul, 2022
本文介绍了一种基于局部特征重要性的机器学习可解释性方法,提出了两个可视化工具:partial importance (PI) 和 individual conditional importance (ICI) plots,并引入了 Shapley feature importance,可以公平地分配模型性能,比较不同模型上的特征重要性。
Apr, 2018
该研究提出了一种系统性地识别模型中引起偏见的所有特征的方法,以帮助领域专家在决策过程中提供支持。通过评估四个知名数据集,展示了我们的贡献如何在开发、测试、维护和部署公平 / 公正的机器学习系统时推动标准程序。
Oct, 2023
通过真实因果关系框架提供一种将特征归因和反事实解释统一的解释方法,通过在 Adult-Income,LendingClub 和 German-Credit 三个基准数据集上的实验,发现 Feature attribution 方法和 counterfactual explanation 方法并不总是一致的,也表明了他们之间的互补性。
Nov, 2020
该论文介绍了可解释人工智能在连续学习用户参与数据的机器学习模型中追溯性能退化的新应用。我们成功地将这种技术应用于提高个性化广告模型的可靠性。这种系统中的性能退化表现为模型中的预测异常。我们演示了全局特征重要性分布的时间漂移如何有效地隔离预测异常的原因,具有比模型对特征相关性方法更好的召回率。该技术似乎在使用简单的扰动方法来近似局部特征重要性并在几千个示例上聚合时也是有效的。我们发现这种技术是一种与模型无关、成本低廉且有效监控生产中复杂数据流水线的方法,并已部署了用于连续分析连续训练模型的全局特征重要性分布的系统。
Mar, 2024