使用 Loss 集合扩展神经网络的文本分类模型
该研究通过探究多种集成方法,包括超级学习器等,运用人工神经网络在图像识别任务中进行设计多个实验,并进一步研究了神经网络的过度自信现象及其对集成方法的影响,并在所有实验中发现超级学习器是表现最佳的集成方法。
Apr, 2017
研究通过一种名为 Learning with Ensemble Consensus (LEC) 的新训练方法解决了深度神经网络在存在标签噪声时过拟合的问题,该方法通过对众多神经网络的一定扰动下的结果进行共识,剔除出噪声样本,其中一个提出的 LEC,即 LTEC 在 MNIST,CIFAR-10,和 CIFAR-100 数据集上表现出更高的分类准确率,且效率较高。
Oct, 2019
本研究探讨了集成学习技术在改善图神经网络(GNNs)性能和鲁棒性方面的应用。我们通过使用多种不同的初始化或结构来训练多个 GNN 模型,创建了一个名为 ELGNN 的集成模型,该模型捕捉了数据的各个方面,并使用树状结构 Parzen 估计算法确定集成权重。结合这些模型的预测结果可以提高整体准确性,减少偏差和方差,并减轻噪声数据的影响。我们的研究结果证明了集成学习在提升 GNN 对分析复杂图结构数据的能力方面的有效性。
Oct, 2023
通过理论分析和经验验证,在深度神经网络中,过拟合发生时,分类器之间的差异性增加。受此结果的指导,我们提出了一种新的基于集成的预测方法,以对抗过拟合。该方法通过选择训练过程中最一致的预测结果来确定最终预测,有效消除了过拟合对模型泛化性能的不利影响,甚至在性能上超过了早停止方法。这种易于实现、可与任何训练方案和架构集成的方法,不需要额外的先验知识,因此是克服过拟合问题的实用和有用工具。
Oct, 2023
本文探讨了从预训练模型中创建集成模型的不同方法,并提出了一种有效的算法来识别下游数据集的预训练模型子集。在 19 项下游任务中(视觉任务适应基准),即使从超过 2000 个预训练模型中进行选择,其实现了具有较低推理预算的最先进性能,并且在 ImageNet 变体上对分布转移具有更好的鲁棒性。
Oct, 2020
本文研究了集成技术在机器学习中的广泛应用,特别是在神经网络中多样性的确切角色、如何衡量它以及它如何促进神经网络集成算法的研究。在三种常用的损失函数和两种常用的模型组合策略的基础上,通过神经网络集成进行了实证验证。
Oct, 2021
本论文介绍了一种低成本框架用于构建子网络集合,通过从已训练的母模型中采样、扰动和优化子网络的方式形成子网络集合,研究发现该方法可以显著提高训练效率、参数利用以及泛化性能,同时最小化计算成本,通过利用深度神经网络的潜力来构建更好的系统。
Nov, 2023
本研究使用神经网络和决策树作为分类算法,在 23 个数据集上评估了 Bagging 和 Boosting 两种集成方法。研究结果表明 Bagging 方法几乎总是比单个分类器更准确,而 Boosting 方法则在某些情况下比 Bagging 更不准确。数据集的特征对 Boosting 方法的表现有重要影响,这种方法可能会过拟合噪声数据集,从而减少性能。同时我们的结果也说明,集成模型的性能提升大部分发生在前几个分类器的组合中。
Jun, 2011
本研究探讨了如何最佳地建立卷积神经网络的组合,比较了多种资源共享和差异性鼓励的策略,其中提出了 TreeNets 算法,最后通过端到端的训练以统一的损失函数获得比传统算法更高的准确率。
Nov, 2015