- 装袋法显著提升泛化效果
通过在参数化级别适当地聚合基学习器而非输出级别,Bagging 能够以指数衰减减少慢慢消失的推广误差,从而显著提升推广性能。
- 基于高效神经网络扩散的深度学习训练的绑定
提出了一种基于高效神经网络扩散(BEND)的 Bagging 深度学习训练算法,通过使用多个训练的扩散模型构建基础分类器,实现多样性和降低成本,取得了比传统方法更好的准确性和多样性,并成功引入了扩散模型进入新的深度学习训练领域。
- 随机化可以降低偏差和方差:随机森林的案例研究
我们研究了随机森林相对于 bagging 方法减少偏差的现象,并通过实证研究发现在数据中存在模式时,随机森林在高信噪比情况下减少了偏差和方差,并优于 bagging 方法。对于随机森林中的随机性注入和参数调整也提供了实用的洞见。
- 通过评估组合性能在构建过程中构建多个决策树的算法框架
本研究提出了一个同时构建决策树并在构建过程中评估它们组合效果的算法框架,通过构建新的决策树组合和评估其组合性能来找到更好的组合。通过在合成和基准数据上进行实验验证了该框架的性能。
- 无仿真强化学习框架中的机器人学习袋装技能
该篇文章介绍了一种基于学习的有效框架,使得机器人能够学会装袋,通过引入一种强化学习算法,该框架能够在现实世界中通过一组紧凑的状态表示找到袋子的最佳抓取点,经过大约三个小时的训练后,该框架在开始折叠和展开装袋任务时的成功率分别达到 60% 和 - 垃圾网址的机器学习分类方法
使用机器学习模型对 URL 进行分类,研究发现 bagging 方法在垃圾邮件识别方面具有 96.5% 的准确率。
- 集成线性插值器:集成的作用
插值器不稳定,论文研究了集合稳定如何改善插值器的泛化性能,Bagging 作为一种随机化集合方法能够并行实现,通过引入基于乘法自助法的 Bagged 最小二乘估计器,对最小二乘估计器求平均,得到该方法。该文进一步探讨了 Sketching - 集成学习中的进化赋权算法
本论文提出了一种利用进化算法来优化学习数据子集之间差异性的基于 bagging 的集成学习算法,并表明该算法在多个基准数据集上的性能优于传统的 bagging 和随机森林方法,同时能够在性能准确性不降低的情况下维持多样性的集合。
- 分析语言模型的装袋方法
本文分析了 bagging 语言模型,并将单一语言模型与模型大小大致相等的 bagged ensembles 进行了比较。我们在自然语言理解任务中探索了一系列模型 bagging 配置,发现我们的整合方法最多只能与单一 LM 基线大致相等。 - 使用深度卷积神经网络优化的集成学习医学图像分类分析
该研究提出了一种可复现的医学图像分类管道,分析了集成学习技术在深度学习医学图像分类管道中的优化效果,发现 Stacking 技术效果最好,能增加 13%的 F1 得分,此外,Augmenting 和 Bagging 技术也能显著提高性能。此 - 面向预算的异常检测表示学习
本文提出了一种名为 BORE 的方法,将非监督得分函数用于监督学习框架中的特征,以解决在大数据集中检测少量异常值的问题,并在 12 个真实世界数据集上展示了其优越性。
- 流行集成方法:一项实证研究
本研究使用神经网络和决策树作为分类算法,在 23 个数据集上评估了 Bagging 和 Boosting 两种集成方法。研究结果表明 Bagging 方法几乎总是比单个分类器更准确,而 Boosting 方法则在某些情况下比 Bagging