集成深度学习:综述
该研究提出了一种可复现的医学图像分类管道,分析了集成学习技术在深度学习医学图像分类管道中的优化效果,发现 Stacking 技术效果最好,能增加 13%的 F1 得分,此外,Augmenting 和 Bagging 技术也能显著提高性能。此外也展示了简单的统计汇总函数与较复杂的机器学习技术汇总函数相比并不逊色。综述结果表明,集成学习技术的使用能够为医学图像分类管道提高性能和抗干扰能力。
Jan, 2022
本研究使用神经网络和决策树作为分类算法,在 23 个数据集上评估了 Bagging 和 Boosting 两种集成方法。研究结果表明 Bagging 方法几乎总是比单个分类器更准确,而 Boosting 方法则在某些情况下比 Bagging 更不准确。数据集的特征对 Boosting 方法的表现有重要影响,这种方法可能会过拟合噪声数据集,从而减少性能。同时我们的结果也说明,集成模型的性能提升大部分发生在前几个分类器的组合中。
Jun, 2011
该研究综述了自然语言处理中混合和集成深度学习模型的广泛探索,揭示了它们在情感分析、实体识别、机器翻译、问答、文本分类、生成、语音识别、摘要生成和语言建模等多种任务中具有的变革潜力。研究系统地介绍了每个任务,从循环神经网络 (RNNs) 到基于 Transformer 的模型如 BERT,阐述了它们的性能、挑战和计算需求。强调了集成技术的适应性,突出了它们增强各种自然语言处理应用的能力。还讨论了在实施过程中的挑战,包括计算负载、过拟合和模型解释复杂性,以及解释性和性能之间的权衡。作为精炼而宝贵的指南,该综述综合了有关任务、模型结构和挑战的见解,为研究人员和从事自然语言处理的从业者提供了一个综合的视角,以通过集成深度学习在自然语言处理中推进基于语言的应用。
Dec, 2023
该研究通过探究多种集成方法,包括超级学习器等,运用人工神经网络在图像识别任务中进行设计多个实验,并进一步研究了神经网络的过度自信现象及其对集成方法的影响,并在所有实验中发现超级学习器是表现最佳的集成方法。
Apr, 2017
本文提出了一种自适应集成学习框架,旨在通过智能地融合特征来提高深度神经网络的性能。该框架通过集成学习策略和深度学习架构实现更强大和适应性强的模型,能够处理跨多个领域的复杂任务。通过智能特征融合方法,自适应集成学习框架生成更具辨别性和有效性的特征表示,导致改进了模型性能和泛化能力。在多个基准数据集上进行了广泛的实验和评估,包括图像分类,目标检测,自然语言处理和基于图形的学习任务。结果表明,所提出的框架始终优于基准模型和传统的特征融合技术,在增强深度学习模型的性能方面非常有效。此外,本文还探讨了自适应集成模型的设计和实现、集成训练策略和元学习技术,这些都有助于提高框架的多功能性和适应性。综上所述,自适应集成学习框架代表了特征融合和集成学习在深度神经网络领域的重大进展,具有在跨多个领域中改变广泛应用的潜力。
Apr, 2023
本文探讨了从预训练模型中创建集成模型的不同方法,并提出了一种有效的算法来识别下游数据集的预训练模型子集。在 19 项下游任务中(视觉任务适应基准),即使从超过 2000 个预训练模型中进行选择,其实现了具有较低推理预算的最先进性能,并且在 ImageNet 变体上对分布转移具有更好的鲁棒性。
Oct, 2020
本文阐述了集成学习的一些基本概念,研究了如何优化集成学习的多样性来对抗敌对攻击,并提供了一些算法来学习如何生成高精度的集成预测。
Aug, 2019
本研究探讨了如何最佳地建立卷积神经网络的组合,比较了多种资源共享和差异性鼓励的策略,其中提出了 TreeNets 算法,最后通过端到端的训练以统一的损失函数获得比传统算法更高的准确率。
Nov, 2015
通过研究和实验证明,相比于单个深层神经网络,神经网络集成在识别度、不确定性量化和对数据集迁移的鲁棒性方面并没有显著提高,二者都能实现类似的性能和效益。
Feb, 2022