进化抽样是否能提高袋装集成
本论文提出了一种利用进化算法来优化学习数据子集之间差异性的基于 bagging 的集成学习算法,并表明该算法在多个基准数据集上的性能优于传统的 bagging 和随机森林方法,同时能够在性能准确性不降低的情况下维持多样性的集合。
Aug, 2022
本研究使用神经网络和决策树作为分类算法,在 23 个数据集上评估了 Bagging 和 Boosting 两种集成方法。研究结果表明 Bagging 方法几乎总是比单个分类器更准确,而 Boosting 方法则在某些情况下比 Bagging 更不准确。数据集的特征对 Boosting 方法的表现有重要影响,这种方法可能会过拟合噪声数据集,从而减少性能。同时我们的结果也说明,集成模型的性能提升大部分发生在前几个分类器的组合中。
Jun, 2011
本文提出了一种新的演化集成分类器,称为 Parsimonious Ensemble pENsemble,该方法由一种被称为 Parsimonious Classifier pClass 的演化分类器构建,具有动态的特征选择和集成结构,并具有检测漂移的新颖方案,在处理动态和演化数据流方面表现最有希望,可以在精度和复杂度之间实现平衡。
May, 2017
本研究提出了一个基于遗传编程的混合集成算法,以提高训练数据集(尤其是少数类)的采样效率,并确定比现有方法更好的基本分类器来组合分类器,实验结果表明,在 40%和 50%的训练集规模下,所提出的方法在少数分类预测的特定数据集上表现更佳。
Jun, 2021
本文介绍了一种基于进化集成学习方法的新型适应度函数及分类器集成选择标准,实验表明离线模式优于单一假设的进化学习和现有的增强学习算法,并生成更小的分类器集成。
Apr, 2007
研究聚合反馈学习的算法,重点关注事件级损失函数的聚合集(文献中称为 bags)的构建。理论上证明了对于线性回归和广义线性模型(GLMs),最优的 bagging 问题可以简化为一维受约束的 k 均值聚类问题。进一步地,定量地证明了使用精心选择的聚合集相比于随机聚合集的优势。然后,提出了适应性形成样本聚合集的 PriorBoost 算法,以改善模型质量,聚合集与(未观测到的)个体反馈越来越同质化。研究了用于聚合学习的标签差分隐私,并通过广泛实验表明,PriorBoost 定期实现了事件级预测的最优模型质量,与非适应性算法形成鲜明对比。
Feb, 2024
本研究针对进化计算领域中的算法选择问题,通过提出一种自适应 CMA-ES 算法的选择方式并测试,取得了比之前研究更稳健的结果,证明了模块选择对于不同优化问题的关键作用。
Apr, 2019