深度卷积神经网络的集成方法在图像分类中的相对性能
该研究提出了一种可复现的医学图像分类管道,分析了集成学习技术在深度学习医学图像分类管道中的优化效果,发现 Stacking 技术效果最好,能增加 13%的 F1 得分,此外,Augmenting 和 Bagging 技术也能显著提高性能。此外也展示了简单的统计汇总函数与较复杂的机器学习技术汇总函数相比并不逊色。综述结果表明,集成学习技术的使用能够为医学图像分类管道提高性能和抗干扰能力。
Jan, 2022
本研究提出一种针对深度神经网络的新型集成学习方法,名为自信多选学习(CMCL),通过解决其过度自信的问题来提高模型的性能,CMCL 比独立集成方法在图像分类和前景 - 背景分割等任务中提高了显著的准确率。
Jun, 2017
通过理论分析和经验验证,在深度神经网络中,过拟合发生时,分类器之间的差异性增加。受此结果的指导,我们提出了一种新的基于集成的预测方法,以对抗过拟合。该方法通过选择训练过程中最一致的预测结果来确定最终预测,有效消除了过拟合对模型泛化性能的不利影响,甚至在性能上超过了早停止方法。这种易于实现、可与任何训练方案和架构集成的方法,不需要额外的先验知识,因此是克服过拟合问题的实用和有用工具。
Oct, 2023
使用了 Conf-Ensemble 技术来提高机器学习模型的性能,通过对 ImageNet 数据集的图像分类实验,发现 Conf-Ensemble 在复杂的多标签分类任务中并未能如预期一样实现优化结果,也说明了大数据难以被利用的非平凡性。
Mar, 2023
本研究探讨了如何最佳地建立卷积神经网络的组合,比较了多种资源共享和差异性鼓励的策略,其中提出了 TreeNets 算法,最后通过端到端的训练以统一的损失函数获得比传统算法更高的准确率。
Nov, 2015
本研究在 ISIC Challenge 2017 数据集上对 9 种 CNN 架构进行了 5 种切分和 3 种重复测试,结果发现 CNN 架构在 ImageNet 上的表现与目标任务的表现强相关性的观点不太成立,当考虑仅使用表现最好的网络时,相关性消失,并且最佳方法仍然是创建多个模型的集成。本研究还比较了两种选择模型的方法,并发现使用验证集进行挑选略优于随机选择。
Apr, 2019
本文提出了一种基于集成技术的神经网络扩展,该神经网络具有集成损失函数用于文本分类并通过神经网络的梯度传播优化方法调整每个弱损失函数的权重,在多个数据集和不同程度的标签噪声下,与其他方法相比表现更好,具有较强的抗噪声能力。
Nov, 2017
本研究使用神经网络和决策树作为分类算法,在 23 个数据集上评估了 Bagging 和 Boosting 两种集成方法。研究结果表明 Bagging 方法几乎总是比单个分类器更准确,而 Boosting 方法则在某些情况下比 Bagging 更不准确。数据集的特征对 Boosting 方法的表现有重要影响,这种方法可能会过拟合噪声数据集,从而减少性能。同时我们的结果也说明,集成模型的性能提升大部分发生在前几个分类器的组合中。
Jun, 2011