可压缩神经网络
该论文提出了一种名为 “通用可变宽度神经网络” 的系统方法,将可变宽度神经网络扩展到任意宽度,提出了两种改进的训练技术,能够提高训练过程和测试准确性;作者在 ImageNet 分类任务、图像超分辨率和深度强化学习任务上评估了其方法,证明其有效性,同时打开了直接评估网络结构 FLOPs-Accuracy 谱的可能性。
Mar, 2019
提出了一种通用框架来在宽度配置和权重优化方面实现可配宽度网络的联合优化,并引入了一种名为 Joslim 的算法,该算法在各种网络、数据集和目标优化中均优于现有方法,最大化提高了各种配置下的效率和准确率。
Jul, 2020
本文介绍了应用于小尺寸关键词检测问题的可调整神经网络。我们展示了可调整神经网络如何允许我们从卷积神经网络和 Transformer 创建超网络,从中可以提取不同尺寸的子网络。我们在本文中展示了这些模型的实用性,并重点关注设备上的用例,将自己限制在不到 250k 参数的范围内。我们展示了可调整模型可以匹配(甚至在某些情况下超过)从头开始训练的模型。因此,可调整神经网络是一类在不同的存储和计算预算以及不同的精度要求下复制相同功能特别有用的模型。
Apr, 2023
本文提出了一种名为 “网络瘦身” 的新颖学习方案,可以通过引入通道级稀疏性,简化深度卷积神经网络,降低了其计算成本,减小了运行时内存占用,同时不影响准确度。我们进行了多组实验,证明了该方案在各种图像分类数据集上具有较好的效果。
Aug, 2017
该研究提出了一种名为 AutoSlim 的单次解决方案,通过单轮迭代评估训练后的可裁剪模型并贪心地裁剪使准确度下降最小的层来获得不同资源限制下的优化通道配置,从而在 ImageNet 分类等任务中取得显著的性能提升。
Mar, 2019
本文提出了一种名为 DS-Net 的动态可整合网络概念,它通过在测试时动态调整网络的卷积滤波器数量,从而实现好的硬件效率。同时,DS-Net 通过一种双头动态门的机制,具有动态推理的能力,并使用一种两阶段训练方案进行训练。实验结果表明,DS-Net 在 ImageNet 数据集上与 ResNet-50 和 MobileNet 模型相比,具有更高的计算性能和实际加速性能。
Mar, 2021
通过利用元学习器生成不同输入尺度的主要网络的卷积权重并针对每个尺度维护私有的批量归一化层,同时利用知识蒸馏技术优化不同输入分辨率下的网络预测,我们学习的元网络可以动态地调节主要网络以适用于任意尺寸的输入图像,表现出相较于单一训练模型更好的准确性和执行效率。经过在 ImageNet 数据集上广泛的实验验证,我们的方法在自适应推断过程中实现了更好的准确性与效率权衡。
Jul, 2020
本文提出了一种简单而有效的可调节语义分割方法(SlimSeg),该方法可以根据所期望的准确度和效率平衡在不同容量下进行推理,并通过阶梯式向下蒸馏的参数化通道精简来进行训练,并引入了边界引导的语义分割损失来改进每个子模型的性能,在 Cityscapes 和 CamVid 等语义分割基准测试中展示了我们提出的 SlimSeg 在各种主流网络上的灵活性能和比独立模型更好的性能。
Jul, 2022
提出一种单卷积神经网络通用的方法,在推理时可以切换图像分辨率,从而可以选择满足各种计算资源限制的运行速度。用该方法训练的网络称为分辨率切换网络(RS-Nets)。通过多分辨率蒸馏和知识蒸馏,RS-Nets 在各种分辨率下的准确性得到了提高。
Jul, 2020
在边缘计算和分布式计算的背景下,通过使用基于可改变编码器的分层执行,我们提出了一种创新的拆分计算方法,该方法可以实时适应计算负载和传输的数据大小,而不会对移动设备造成太大的计算负荷,从而提高了压缩效率和执行时间。
Jun, 2023