- 自适应树集合的原型解释器(A-PETE)
使用自适应原型解释树集成算法(A-PETE),通过专用距离度量和改进的 k-medoid 方法,自动选择原型,以解释机器学习模型,并提供足够数量的原型用于解释随机森林分类器。
- 分段线性集成的联合优化
Tree ensembles and Joint Optimization of Piecewise Linear ENsembles (JOPLEN) achieve superior performance in regression, - 树集合中更快的重复规避攻击
构建树集成模型中对抗样本的计算挑战和特征扰动的快速识别方法。
- 上下文多臂赌博机的树集成
我们提出了一种基于树集成的上下文多臂赌博机的新框架,通过整合上界置信度和汤普森采样两种广泛使用的赌博机方法,用于标准和组合设置。通过几项实验研究,我们使用了流行的树集成方法 XGBoost 来证明我们的框架的有效性。与基于神经网络的最先进方 - 为什么随机森林有效?理解树集合作为自正则化的自适应平滑器
将树集合视为自适应和自正则化的平滑器,可以提供对集合中树的预测更为平滑的新认知和深入洞察,以及通过量化集合中树的平滑效果客观地重新审视和调和森林成功的两种近期解释,并挑战以方差减少为唯一解释的观点,展示森林通过三种机制改进树的性能,并通过丰 - GADBench: 重温并比较监督式图异常检测
我们提供了 GADBench - 一个静态图中监督异常节点检测的全面基准测试。我们的主要发现是,使用简单邻域聚合的树集成优于所有其他基线,包括针对 GAD 任务量身定制的最新 GNN。
- FIRE:一种优化方法用于快速可解释规则提取
该论文提出了 FIRE (快速可解释规则提取) 算法,通过优化框架从树集成模型中提取出易于理解的、稀疏的代表性决策规则集合,同时鼓励规则融合以提高模型可解释性,算法通过特殊优化器可实现 40 倍于现有优化器的性能。实验表明,该方法在构建稀疏 - ICML计算最优树集合
提出了两种新算法以及相应的下限,适用于树集合,展示了决策树和树集合分类训练数据集所需的切割数相比,随着树的数量增加,集合所需的切割数可能会指数级下降。
- 在 ARM 设备上快速推理树集合
本文研究基于 ARM CPU 的机器学习模型评价问题,并发现使用固定点量化方法可以在几乎所有情况下提高速度,同时对模型预测性能影响可以忽略不计。
- 可学习学习速率的无梯度联合梯度提升树
提出一种水平联邦 XGBoost 的创新框架,通过使聚合树模型的学习率可学习,从而不依赖于梯度共享,同时提高隐私和通信效率,降低通信轮数和开销,并在各种数据集上进行了广泛评估。
- 基于树集的预测最小成本解释查找
本文旨在通过一种高效的 Oracle 和 MARCO 算法改进,提供一个最小的、满足成本函数的解释,以解释机器学习模型的预测,并对这些解释进行了研究和分析,以进一步了解它们的特点。
- 混合特征空间已知约束条件下的贝叶斯优化树集成核函数
本文提出采用树集成的核解释作为高斯过程先验以获得模型方差估计,并开发了与采集函数兼容的优化公式来同时解决使用树集成进行黑盒优化的两个主要挑战,从而在连续 / 离散特征以及混合特征的空间中,优于竞争方法。
- 树集成中的最优反事实解释
本文提出了一种基于模型的搜索方法,利用混合整数规划技术生成了对树集的对抗性解释,并通过隔离森林模型针对低异常得分的合理解释进行优化。
- ICMLTREX:基于树集成的描绘点解释
本文介绍了一种基于 REPresenter Point 框架的解释系统 TREX,它通过构建与特定树集成结构相对应的核来定义全局或局部的重要性,该系统的代理模型准确地近似了树集成,其重要性权重在数据集调试方面比以前的最新技术更加有效。
- ICML重生树集成
本研究旨在解决决策树集成在多领域应用时造成的可解释性下降,提出了 Born-Again 树集成的方法,通过动态规划算法生成出在实际数据集上表现优异的 Born-Again 树模型,以在不牺牲分类器性能的前提下获得更高的可解释性。
- 面向安全应用的成本感知鲁棒树集成
该论文提出了一种基于成本驱动的约束来训练鲁棒性决策树模型的成本建模方法,在 Twitter 垃圾邮件检测等场景中显示出比现有方法更高的准确性、更低的误报率和更强的成本感知鲁棒性。
- AAAI基于 Tree 集成的灵活可优化反事实解释解释(FOCUS)
为了解决机器学习模型的可解释性问题,本研究提出了一种基于梯度优化和概率模型逼近的反事实解释方法,可以适用于不可微模型如树模型,并且该方法得出的反事实案例要优于其他针对树模型的反事实方法。
- 一种去偏置的随机森林特征重要性度量方法
该论文从理论和方法论两方面,通过提出一种基于无袋预测样本的去偏 MDI 重要性度量方法,即 MDI-oob,来解决 MDI(Mean Decrease Impurity)特征选择方法中的偏差问题,并在其基础上表现出 RF(Random Fo - 使树集成模型可解释性:贝叶斯模型选择方法
本研究提出了一种通过模型简化方法(树模型的选择问题),使得复杂的树模型具有可解释性的算法,该算法可以保证预测性能的同时,将复杂的树模型逼近成最简单的表现形式
- ICML树形集成模型的可解释性
该研究提出一种后处理方法通过使用 EM 算法和简化模型来提高树模型的可解释性,并进行了人工合成实验以证明该方法的可行性。