关键词feature importance scores
搜索结果 - 9
- 一种基于树模型的变系数模型
该论文介绍了一种基于树的可变系数模型,其中可变系数使用德隆等人的循环梯度提升机进行建模。使用循环梯度提升机对系数函数进行建模可以实现基于维度的早停和特征重要性得分。基于维度的早停不仅降低了维度特定的过拟合风险,还揭示了维度之间模型复杂性的差 - CGS-Mask: 使时间序列预测变得直观的方法
CGS-Mask 是一个后期处理的、与模型无关的基于细胞遗传剥离蒙版的重要性评估方法,通过将连续的时间步骤作为一个整体来评估特征对最终预测结果的影响,提供时间上的二进制和持续的特征重要性评分。CGS-Mask 在合成数据集和实际数据集上进行 - 基于树模型和替代模型的公平特征重要性评分
我们提出了一种公平特征重要性评分,用于解释决策树等可解释的黑盒机器学习模型对公平性或偏见的贡献。通过模拟和真实示例,我们证明了该方法对树形集成和其他机器学习系统的树形替代物提供了有效的解释性。
- 归纳解释的公理化聚合
通过合作博弈理论和因果强度的措施,将多个可能的诱导解释汇总为特征重要性评分,从而解决了单个和全部有效诱导解释之间的矛盾,这些解释对多个数据集都具有鲁棒性,同时欺骗 SHAP 和 LIME 的攻击也是有效的。
- SHAP-IQ:任意阶 Shapley 交互的统一逼近
该研究提出了一种基于采样的计算 Shapley interaction 的新方法 SHAP-IQ,可以用于所有符合线性、对称和虚拟公理的定义,理论上保证了其逼近质量,并提供了点估计的方差估计。该方法极大地简化了 SV 的计算,效率和效果得到 - MM基于集合博弈理论的无监督分类数据特征排序
本文提出了一种基于博弈理论、计算特征重要性的方法,用于无监督特征选择并消除冗余,结果表明该方法在降低冗余率的同时最大化数据信息。同时,本文还介绍了一种计算 Shapley 值的算法的近似版本,使其能够降低复杂度。
- KDD使用决策路径评估学习排名模型的本地无模型相关解释
本篇论文旨在实现一种系统评估 LTR 模型解释技术的方法,即通过决策树焕发的 ground truth 特征重要性得分,和这些解释技术产生的特征重要性得分进行直接比较,以此来比较 MQ2008 数据集上的 LTR 模型分别采用决策树和梯度提 - 基于深度孤立森林特征重要性的可解释异常检测
本文提出了高效而省时的方法,在隔离森林的全局和局部层面上定义特征重要性得分,并定义了一种在无监督异常检测中执行特征选择的过程。在多个合成和实际数据集上评估了性能,并与现有技术进行比较。
- 部署中的可解释机器学习
本研究探讨企业机构如何使用可解释机器学习来提供给利益相关者洞察模型行为,发现目前解释主要面向机器学习工程师,而不是受到模型影响的最终用户,存在内外部利益相关者的差异。研究综合分析了当前解释技术的局限,提出了促进最终用户交互的可解释性目标框架