MotherNets: 快速深度集成学习
本研究探讨了如何最佳地建立卷积神经网络的组合,比较了多种资源共享和差异性鼓励的策略,其中提出了 TreeNets 算法,最后通过端到端的训练以统一的损失函数获得比传统算法更高的准确率。
Nov, 2015
本论文介绍了一种低成本框架用于构建子网络集合,通过从已训练的母模型中采样、扰动和优化子网络的方式形成子网络集合,研究发现该方法可以显著提高训练效率、参数利用以及泛化性能,同时最小化计算成本,通过利用深度神经网络的潜力来构建更好的系统。
Nov, 2023
本文提出了一种名为 ' 快照集成 ' 的新技术,可以实现在不增加训练成本的情况下,通过在一个单一的神经网络中收敛到几个局部极小值并保存模型参数的方法,同时通过循环学习率表达式,获得重复快速收敛的能力,实验结果表明,这种方法可有效地降低误差率并与传统的网络集成方法相比较优秀。
Apr, 2017
本文探讨了从预训练模型中创建集成模型的不同方法,并提出了一种有效的算法来识别下游数据集的预训练模型子集。在 19 项下游任务中(视觉任务适应基准),即使从超过 2000 个预训练模型中进行选择,其实现了具有较低推理预算的最先进性能,并且在 ImageNet 变体上对分布转移具有更好的鲁棒性。
Oct, 2020
本文提出一种名为 “Prune and Tune” 的方法,通过剪枝单个神经网络的参数创建多个包含不同拓扑结构的成员作为集成,最终使得训练集成成员的代价明显降低同时准确率不降反升,主要应用于 CIFAR-10 和 CIFAR-100 数据集。
Feb, 2022
通过设计对权重和超参数的模型集成来改进模型的性能,并提出了一种超参数深度集成和超批集成方法,能够在计算和存储成本方面比传统的集成方法更加高效,应用于 MLP、Lenet、ResNet 20 和 Wide ResNet 28-10 网络结构,达到了超越深度集成和批量集成的最佳性能表现。
Jun, 2020
本文介绍了一个名为 GENet 的深度卷积神经网络,其采用了共享基础和多头结构的技术,能够以单个 ConvNet 的计算量,实现多个 ConvNets 的集合学习,并提供了群组平均、群组摇摆和群组增强三种不同的策略来聚合这些集成成员,可以在 CIFAR 和 ImageNet 上优于更大的单个网络、更小的标准集合和其他最新的方法,并且在图像识别和物体检测任务上表现出良好的效果。
Jul, 2020
通过研究和实验证明,相比于单个深层神经网络,神经网络集成在识别度、不确定性量化和对数据集迁移的鲁棒性方面并没有显著提高,二者都能实现类似的性能和效益。
Feb, 2022
通过使用多个独立的子网络组成的集成模型来提高模型性能和可靠性,并通过新的损失函数鼓励模型之间的多样性,在保持计算效率的同时,有效地改善模型的不确定性估计。在计算机视觉、自然语言处理和基因组数据等多个领域的广泛实验中,我们的方法在预测可靠性方面取得了显著改善。
Aug, 2023
本文提出两种构建神经网络集合的方法,使用不同的体系结构,以细化预测结果并利用架构变化作为集合的差异性的来源,并在多个分类任务和现代架构搜索空间方面表现优于深度集成。
Jun, 2020