- 分支:用于优化决策树的快速动态规划和分支限界算法
Branches 算法结合了动态规划和分支界限方法,提供了出色的速度和稀疏性解决方案,通过理论分析和实证评估验证了比现有方法更低复杂性以及始终产生最优的决策树的优势。
- 在流式和大规模并行模型中找到决策树分裂
本研究提供了数据流算法,以计算决策树学习中的最佳分割点,从而将数据分为两组,使得均方误差(对于回归)或误分类率(对于分类)最小化。这些算法利用亚线性空间和少量遍数解决这些问题,并可扩展到大规模并行计算模型。
- 决策树学习中选择的力量
我们提出了一种简单的决策树学习算法的泛化方法,称为 Top-k,它考虑了 k 个最佳属性作为可能的分割点,相较于贪婪算法和最优决策树算法,在准确率和可扩展性方面都取得了显著的优势。
- 数据、树和森林 -- K-12 教育中的决策树学习
为了帮助 K-12 学生更好地了解机器学习相关现象及对社会的影响,本文提出了一种基于决策树学习的寓教于乐,便于理解且能激励学生主动应用机器学习方法的教学概念。
- 从嘈杂数据中学习线性时间属性:一种 MaxSAT 方法
该论文提出了两种算法:第一种使用 MaxSAT 求解器在高噪声数据下推导出最小 LTL 公式,第二种算法则基于第一种算法使用决策树学习算法推导出 LTL 公式的决策树。这些算法能够高效地提取简明的 LTL 描述。
- AAAI分布式差分隐私决策树学习的可扩展和可证明精确性算法
本文提出了分布式环境下差分隐私保护决策树学习的第一个证明准确的算法: DP-TopDown,并介绍了两种分布式实现方法。这些研究成果提供了差分隐私保护下的顶部 - 向下决策树学习的效用保证,并揭示了在隐私、精度和概括性之间学习私有决策树的权 - MurTree:使用动态规划和搜索实现的最优分类树
本研究提出了一种基于动态规划和搜索的学习算法来实现最优决策树,这种算法支持对树的深度和节点数量设置限制,并在实验证明使用我们的算法只需要很短的时间就可以处理具有成千上万个实例的数据集,从而极大地提高了最优决策树的实用性。
- ICML决策树归纳的可证明保证:零知识条件
该研究的主要关键词有决策树学习、独立设置、单调函数、启发式算法和误差分析。该研究提供了一种基于启发式算法的决策树学习方法,可以在独立设置下优化误差,并取得了匹配近似下限。
- 时间刻画的差异识别
该论文提出了一种形式化框架,名为 trace-set 区分,通过基于整数线性规划(ILP)和决策树学习的方法,可以实现零点定位程序内部的差异,从而有效地调试时间侧信道漏洞和可用性漏洞。
- ICML基于自上而下的粒子滤波的贝叶斯决策树
该论文介绍了一种基于顺序蒙特卡罗算法来近似贝叶斯决策树的后验分布的方法,与现有的基于局部 MCMC 的方法相比,该算法具有更好的计算效率和精度。