给出了一种算法,该算法在任意插入和删除已标记示例的序列上维护了一棵近似的决策树,并具有最坏情况下的运行时间保证。
Feb, 2023
提出了两种新算法以及相应的下限,适用于树集合,展示了决策树和树集合分类训练数据集所需的切割数相比,随着树的数量增加,集合所需的切割数可能会指数级下降。
Jun, 2023
通过预测删除的动态模型,在部分动态解决方案和完全动态解决方案之间提供了有效率的算法,并且能够在预测质量较高的情况下改进效率界限,而在预测质量较低的情况下与现有的完全动态算法持平,展示了两者之间的优雅权衡。
Jul, 2023
本研究在完全动态的环境下,旨在最大化基数约束下的单调子模函数,研究结果为一个具有多项式对数的摊销更新时间和可得到 0.5-ε 近似解的随机算法,并结合经验研究证明了算法性能的优越性。
Jun, 2020
该论文提出了一种算法,该算法能够基于全局目标同时优化决策树的所有级别的分裂函数和叶参数,使用随机梯度下降进行优化,实验结果表明,该算法相比贪心算法在分类任务的表现优秀。
Nov, 2015
引入了一种用于具有连续特征的分类树的移动视距差分进化算法 (MH-DEOCT),通过在每个节点上迭代训练浅子树来平衡视觉和优化器能力,实验证明其在训练和测试准确性上优于启发式方法 CART 的平均 3.44% 和 1.71%,同时在深树和大规模数据集方面具有显著的可扩展性。
Nov, 2023
该研究的主要关键词有决策树学习、独立设置、单调函数、启发式算法和误差分析。该研究提供了一种基于启发式算法的决策树学习方法,可以在独立设置下优化误差,并取得了匹配近似下限。
引入决策树与动态图特征相结合的 TREE-G 模型,它不仅考虑了预定义的数据特征,而且结合了顶点特征、图拓扑信息和树的累积信息进行预测任务,同时还提供了可解释性机制,实验结果表明 TREE-G 在多个图和节点的预测基准实验中表现出较高的性能和准确度。
Jul, 2022
本研究提出一种新型的增量决策树学习算法,Hoeffding Anytime Tree,与当前最先进的 Hoeffding Tree 相比,具有更高的统计效率。该算法具有极快的决策树生成速度,能够有效应对概念漂移,并在绝大多数 UCI 数据集上取得了显著的预测精度。
Feb, 2018
Branches 算法结合了动态规划和分支界限方法,提供了出色的速度和稀疏性解决方案,通过理论分析和实证评估验证了比现有方法更低复杂性以及始终产生最优的决策树的优势。
Jun, 2024