MutualNet: 通过宽度和分辨率的相互学习来自适应卷积神经网络
本文提出使用 MutualNet 方法可以训练单个网络在不同的资源限制条件下进行运行,且本方法适用于各种神经网络架构和任务,并且能够降低训练成本。
May, 2021
本文系统研究了模型的缩放并提出了一种基于网络深度、宽度和分辨率的平衡方法,进而使用神经架构搜索设计了一种新的基线网络并扩展成一系列模型,称为 EfficientNets,这些 EfficientNets 在多项测试中取得了更好的准确性和效率,包括在 ImageNet 数据集上达到了 84.3% 的 top-1 准确率,在成为当前最佳的 ConvNet 的推理速度比其快 6.1 倍、参数更少的情况下,这是一个领先的结果。
May, 2019
通过利用元学习器生成不同输入尺度的主要网络的卷积权重并针对每个尺度维护私有的批量归一化层,同时利用知识蒸馏技术优化不同输入分辨率下的网络预测,我们学习的元网络可以动态地调节主要网络以适用于任意尺寸的输入图像,表现出相较于单一训练模型更好的准确性和执行效率。经过在 ImageNet 数据集上广泛的实验验证,我们的方法在自适应推断过程中实现了更好的准确性与效率权衡。
Jul, 2020
该论文提出了一种名为 “通用可变宽度神经网络” 的系统方法,将可变宽度神经网络扩展到任意宽度,提出了两种改进的训练技术,能够提高训练过程和测试准确性;作者在 ImageNet 分类任务、图像超分辨率和深度强化学习任务上评估了其方法,证明其有效性,同时打开了直接评估网络结构 FLOPs-Accuracy 谱的可能性。
Mar, 2019
本文介绍了一种基于残差连接和多通道上采样的多路径细化网络 RefineNet,能够通过利用深度学习卷积神经网络中的所有信息来对图像进行高精度的预测和语义分割,该方法通过在深度网络中进行残余连接来有效地进行端到端的训练,并应用在七个公共数据集中取得了最优结果。
Nov, 2016
本文介绍了一种简单通用的方法去训练单个神经网络的可执行不同宽度(即层中通道的数量),从而允许在运行时进行即时和自适应的准确性和效率权衡。基于共享网络的可切换批量归一化,可以在不同的宽度配置下进行训练,并可根据实时运行结果和资源限制在多个应用领域中实现类似甚至更好的准确性和效率表现。
Dec, 2018
提出一种单卷积神经网络通用的方法,在推理时可以切换图像分辨率,从而可以选择满足各种计算资源限制的运行速度。用该方法训练的网络称为分辨率切换网络(RS-Nets)。通过多分辨率蒸馏和知识蒸馏,RS-Nets 在各种分辨率下的准确性得到了提高。
Jul, 2020
本论文提出一种新颖的分辨率自适应网络(RANet),通过利用输入样本的空间冗余性,有效地降低了深度网络的计算成本,同时在 CIFAR-10、CIFAR-100 和 ImageNet 数据集上展示了其性能优越性。
Mar, 2020