深度集成学习的推理效率优化
本文研究了一种简单的自适应推理方案,通过构建级联模型集成(CoE)并根据集成一致性作为数据依赖路由准则,将资源高效的模型逐渐扩展到更表达能力的模型,从而提高准确性并降低推理成本。
Jul, 2024
本文研究了将 Deep Ensembles 方法扩展到与不确定性评估相关的任务,提出了一种在接近二元决策边界的窗口内传递样本以实现早期退出的新方法,并发现级联 / 集成模型在 OOD 数据上比模型扩展更可靠。
Mar, 2023
该论文提出了一种名为深度子集合(Deep Sub-Ensembles)的方法,通过仅对接近输出层的层进行集成,从而近似获得深度集合(Deep Ensembles)的模型不确定性, 在减少计算负担的同时,控制了误差和 NLL 的变化,来实现在误差和不确定性精度和计算性能之间的权衡。
Oct, 2019
本文研究使用 ensemble 方法来提高模型性能的有效性,实验结果表明,与单个模型相比,用 ensemble 组合模型在准确率和计算效率上有更好的表现,并提出 ensemble 模型作为模型推理速度和准确性之间的灵活权衡。
May, 2020
该论文提出了一种使用深度神经网络级联和选择模块的新框架,通过同时优化预测准确性和能耗,实现了在测试时间的有效成本 - 准确性权衡,验证了该方法在图像分类任务中优于标准训练的 ResNets,对 CIFAR-10/100 数据集的 FLOPs 成本需求不到 20% 和 50%,在 ImageNet 数据集上只需求 66%。
Oct, 2017
本文探讨了从预训练模型中创建集成模型的不同方法,并提出了一种有效的算法来识别下游数据集的预训练模型子集。在 19 项下游任务中(视觉任务适应基准),即使从超过 2000 个预训练模型中进行选择,其实现了具有较低推理预算的最先进性能,并且在 ImageNet 变体上对分布转移具有更好的鲁棒性。
Oct, 2020
本文研究委员会模型的效率,揭示即使使用最简单的基于现有预训练模型构建委员会的方法,依然可以在图像分类、视频分类和语义分割等任务中达到与现有最先进模型相当或更高的精度,且速度更快,比如 EfficientNet 级联可以达到超过 B7 5.4 倍的加速。
Dec, 2020
本文研究深度学习的集成方法,提出了具有共享表示的集成方法,通过实验数据计算并展示了其高效性和可伸缩性,并在表情识别领域达到了人类级别的性能。
Jan, 2020
本文提出了一种新的训练和模型选择框架,用于模型无关的强化学习算法,使用单次训练的策略集合。这些策略通过定向扰动模型参数在一定时间间隔内进行学习,选择一个足够多样化的策略集合对于得到一个好的集成模型来说是必需的。该框架具有显著的样本效率和低计算成本,且在 Atari 2600 和 Mujoco 中表现优异。
Jan, 2020