强优化分类树
该研究提出了一种基于流的 MIP 公式,利用 Bender's 分解方法解决最优二元分类树问题,该方法比现有的 MIP 技术快 50 倍,并在标准基准数据集上将预测精度提高多达 13.8%。
Feb, 2020
全球优化分类树方法通过建立新的混合整数规划方法,在多个线性和非线性指标的综合下,提供了优于传统方法的解析度和普适性。在延展性和实用性测试中,该方法在小型和中型数据集上相较于随机森林取得了显著的精度提升。
Jan, 2024
本研究提出了一种基于动态规划和搜索的学习算法来实现最优决策树,这种算法支持对树的深度和节点数量设置限制,并在实验证明使用我们的算法只需要很短的时间就可以处理具有成千上万个实例的数据集,从而极大地提高了最优决策树的实用性。
Jul, 2020
本研究提出了一个通用框架并构建了一种新型的最优逻辑树模型,该模型采用线性分段逼近法处理逻辑损失,并与 L1 正则项耦合,证明其能够诱导出具有更好可解释性和竞争性推广能力的树状模型,相对于现有的 MIP-based 方法。
Jun, 2023
本文提出了一种新的基于支持向量机和 1 - 范数分多元决策树(ODT)训练的混合整数规划(MIP)公式,利用线性规划(LP)数据选择方法选择数据样本,实现了对大数据集的有效训练,并在包含 245,000 个样本的数据集上验证了该方法优于现有的启发式方法和其他基于 MIP 的技术的效果。
Nov, 2020
本文提出了一种混合整数规划的方法来构建特定大小的最优决策树,采用特殊结构的分类特征,考虑每个节点上基于特征子集的组合决策,并通过阈值处理处理数值特征,证明了在中等规模的训练集下,采用小型决策树可获得很高的准确率,我们使用现代求解器解决所提出的优化问题。
Dec, 2016
本研究设计了一个 MIO(mixed integer optimization)框架,用于学习最优的分类树算法,以及与任意公平性约束进行扩展;提出了一个新的模型可解释性度量标准,称为决策复杂度;在流行数据集上,我们对公平性、可解释性及预测准确性之间的权衡进行了综合分析,证明了我们的方法在几乎完全平等的情况下仍能保持精度.
Jan, 2022
基于混合整数规划技术,我们提出了一种学习鲁棒分类树的方法,通过问题转化和约束生成的解决方法,在公共可用数据集上展示了最差情况准确率提高了 12.48%,平均情况准确率提高了 4.85%。
Oct, 2023
决策树是一种高度可解释的模型,用于解决机器学习中的分类问题。本文提出了一种基于列生成的启发式方法来学习决策树,在多类别分类实例中减少子问题数量,并改进了数据依赖约束和线性规划松弛解的分离模型,以提高可扩展性。
Aug, 2023