快速准确的模型缩放
本文系统研究了模型的缩放并提出了一种基于网络深度、宽度和分辨率的平衡方法,进而使用神经架构搜索设计了一种新的基线网络并扩展成一系列模型,称为 EfficientNets,这些 EfficientNets 在多项测试中取得了更好的准确性和效率,包括在 ImageNet 数据集上达到了 84.3% 的 top-1 准确率,在成为当前最佳的 ConvNet 的推理速度比其快 6.1 倍、参数更少的情况下,这是一个领先的结果。
May, 2019
本文提出了一种名为 NeuralScale 的算法,该算法使用了迭代剪枝方法控制神经网络的大小和参数,进而优化了固定神经网络的结构和配置,经过实验得出,NeuralScale 在参数约束的情况下,与默认配置相比,在 CIFAR10、CIFAR100 和 TinyImageNet 的数据集上分别增加了 3.04%,8.56%和 3.41%的准确性,取得了优异的表现。
Jun, 2020
本文介绍了一种新的超网络策略可以用来快速生成卷积神经网络,从而用于处理图像分割任务,在尽可能地保证准确性的前提下提高计算效率,并成功展现了各种域的价值。
Apr, 2023
本文重新研究了经典的 ResNet 模型,并重点讨论了模型架构、训练方法和扩展策略对模型性能的影响。作者发现,训练方法和扩展策略可能比模型架构的变化更重要,同时作者提出了两种新的扩展策略,并设计了一系列 ResNet 架构。实验结果表明,这些简单修改的 ResNet 模型比 EfficientNet 更快,且在 ImageNet 上达到了类似的准确性,同时在半监督学习和下游任务转移学习上也有显著提升。
Mar, 2021
基于第二阶损失景观信息的自动缩放方法,以灵活适应视觉变换器中的跳跃连接;在 DeiT-S 与 ImageNet100 上广泛评估,相较于传统缩放,准确率提高 2.5%,参数效率提高 10%;缩放网络在从头训练小规模数据集时表现出卓越性能,是视觉变换器的首个完整缩放机制,实现高效模型缩放的一步。
Feb, 2024
神经网络的表现在训练时间、数据集大小和模型大小上预测性地提高,这一现象被称为神经缩放定律,而计算最优缩放定律则是将性能作为计算单元函数以选择模型大小来报告的;研究表明,神经网络在训练早期以 $1/ extit {width}$ 的速度收敛到无限宽度动力学,但在后期表现为 $ extit {width}^{-c}$ 的速度,其中 $c$ 取决于架构和任务的结构;此外,理论上显示了由于数据的重复重用,训练和测试损失之间的差距可以随时间逐渐增大。
Feb, 2024
最近几年,深度学习领域的最新发展主要由大规模模型主导,这些模型在大量数据上进行了预训练。本文在视觉任务和 Vision Transformers 家族中,通过引导缩放规律,设计出了计算优化的自适应模型,并证明其胜过静态模型。
Nov, 2023
本文提出了 ScaleNet 模型,结合了基模型和缩放策略的搜索,利用马尔科夫链进化算法互动学习基模型的缩放策略来发展具有更加优异性能的大型模型,实验结果表明我们的放大网络在各种 FLOPs 上具有显着的性能优势,但搜索成本至少降低了 2.53 倍。
Jul, 2022
本文研究通过增加训练集大小来提高深度卷积神经网络图像处理的性能,发现在训练样本数较少时,模型表现随训练样本数增加而迅速提升,但在一定程度上达到饱和,并提出理论解释。
Sep, 2022
本文研究神经网络在解决大规模复杂图形结构问题方面的性能瓶颈和深层网络优势的不足,通过对现有几种图卷积网络的分析,提出了两种可用于深度扩展的新型网络结构,以更好地利用多尺度信息来进行节点分类。
Jun, 2019