本文提出了一种动态分辨率网络(DRNet),它可以根据输入图像的大小动态地确定输入分辨率,从而优化了神经网络的计算负担,并在 ImageNet 上进行了实验验证。
Jun, 2021
本研究提出基于 ResNet 架构的参数共享和自适应计算时间的网络,该网络比原始网络更小,能够根据输入图像的复杂性调整计算成本。
Apr, 2018
本文介绍了通过重新构造非线性激活函数创建硬件高效模型的新范式 -- Restructurable Activation Networks(RANs),包括硬件感知搜索空间和半自动搜索算法 RAN-explicit(RAN-e)等。通过训练自由的网络拓扑缩放方法称为 RAN-implicit(RAN-i),我们在多种硬件设备上实现了图像分类,目标检测及性能方面的全面提升,并在 ImageNet 上实现了最新的结果。
Aug, 2022
提出一种单卷积神经网络通用的方法,在推理时可以切换图像分辨率,从而可以选择满足各种计算资源限制的运行速度。用该方法训练的网络称为分辨率切换网络(RS-Nets)。通过多分辨率蒸馏和知识蒸馏,RS-Nets 在各种分辨率下的准确性得到了提高。
Jul, 2020
该论文提出了一种基于残差网络的深度学习架构,动态调整图像区域执行的层数,提高图像分类和物体检测的计算效率,并在实验中证明了计算时间映射与人眼注视位置之间具有惊人的相关性。
Dec, 2016
本文提出了一种名为 AR-Net 的新方法,该方法使用策略网络来选择用于处理的输入分辨率,以在长且未修剪的视频中实现高效的动作识别。与现有技术相比,此方法可大大提高识别的准确性和效率。
本文提出了一种名为 AdaDSR 的单图像超分辨率方法,使用自适应推理网络和轻量级适配器模块来预测局部网络深度,并使用高效的稀疏卷积进行自适应推理。
Apr, 2020
本文通过实证研究,鉴定了 ResNet 中可舍弃的连接,以实现在资源不足情况下的分布式计算;同时,提出了一个多目标优化问题,旨在减少延迟、提高准确性;实验证明了自适应的 ResNet 架构可以在分布过程中减少共享数据、能耗和延迟,同时保持高准确性。
Jul, 2023
通过自适应选取深度神经网络组件或网络进行评估,可以在不损失准确性的情况下,显著减少计算时间,例如在 ImageNet 图像识别挑战中,最多可加速 2.8 倍,并且仅有最高 5 个命中率的轻微损失。
Feb, 2017
本文研究了如何更有效地训练具有多个中间分类器的自适应深度网络,提出了梯度均衡算法,内联子网络协作方法和一对所有知识蒸馏算法等三种方法,以改进分类器协作并进一步提高自适应性深度网络的效率。在 CIFAR-10,CIFAR-100 和 ImageNet 等多个数据集上展示了该方法相对于现有技术的改进效果。
Aug, 2019