通过特征贡献和 MDI 特征重要性解释 Deep Forest
该论文从理论和方法论两方面,通过提出一种基于无袋预测样本的去偏 MDI 重要性度量方法,即 MDI-oob,来解决 MDI(Mean Decrease Impurity)特征选择方法中的偏差问题,并在其基础上表现出 RF(Random Forests)特征选择方面的最佳性能。
Jun, 2019
本文介绍了一种名为 MDI + 的灵活的特征重要性框架,它使用广义线性模型(GLMs)和更适合给定数据结构的度量衡,并结合了额外的功能来缓解对加性或平滑模型的预测的已知偏差。经过广泛的基于数据的模拟和实际案例研究,并将 MDI + 应用于药物反应预测和乳腺癌亚型分类,结果表明,MDI + 在提取预测基因方面优于现有的特征重要性度量,具有更高的稳定性。
Jul, 2023
该研究提出了一个名为 MLDF 的多标签深度森林方法,该方法利用度量感知特征重用和度量感知层增长机制同时解决了多标签问题中的两个难点:模型复杂性约束和性能度量优化。实验证明,与基准数据集上的其他方法相比,我们的提议不仅击败了六个度量标准,而且在多标签学习中具有标签相关性发现和其他期望的属性。
Nov, 2019
本研究提出了一种计算随机森林分类模型的特征贡献的方法,可以确定每个变量对单个实例的模型预测的影响,并通过分析训练数据集的特征贡献来确定最显着的变量和它们对个别类别预测的贡献模式,并阐述其在 UCI 基准数据集上的应用。
Dec, 2013
本文提出了高效而省时的方法,在隔离森林的全局和局部层面上定义特征重要性得分,并定义了一种在无监督异常检测中执行特征选择的过程。在多个合成和实际数据集上评估了性能,并与现有技术进行比较。
Jul, 2020
本文提出了针对异构数据特征关系相互影响的两种新型方法:互济森林影响(MFI)和互济不纯性减少(MIR),并通过 p 值测试程序来选择相关和重要特征,在模拟数据集等应用中表现良好。
Apr, 2023
探索基于不可微分模块建立深度模型的可能性,提出了树集成方法 gcForest。实验表明,该方法具有很强的鲁棒性,在大多数情况下,即使在不同领域的不同数据中,使用相同的默认设置也能获得出色的性能。
Feb, 2017
提出了一种名为 Forest Floor 的可视化方法,用于解释 random forest 模型,通过使用特征的贡献值和降维投影的方法,能够准确识别模型的交互作用及局部细节。
May, 2016
本文对随机森林进行了深入分析,重点讨论了其学习能力、内部运作和可解释性。本文的贡献在于通过理论分析,证明了随机森林的变量重要性可解释性,从而揭示了随机森林在数据分析和机器学习中的应用潜力。
Jul, 2014
我们提出了一种公平特征重要性评分,用于解释决策树等可解释的黑盒机器学习模型对公平性或偏见的贡献。通过模拟和真实示例,我们证明了该方法对树形集成和其他机器学习系统的树形替代物提供了有效的解释性。
Oct, 2023