WRPN:宽度减少精度网络
本研究旨在通过使用一种新的量化方案来缩减激活函数,从而提高计算机视觉应用的性能。我们发现这种方案可以在不降低模型精度的情况下,大大降低动态内存占用、内存带宽、计算能量并加速训练和推理过程。我们称其为宽面减少精度网络,研究表明其结果优于以前提出的精度网络。
Apr, 2017
该研究考虑了使用不同精度数据的卷积神经网络对其分类准确性的影响,发现误差容限不仅在不同网络之间有差异,而且在网络内部也有变化;进一步提出了一种方法,可以找到网络的低精度配置,同时保持高准确性。研究表明,相对于在所有层中使用 32 位浮点表示的传统实现,数据足迹可以平均减少 74%,最高可降至 92%,而相对准确性损失不到 1%。
Nov, 2015
本文研究了超分辨率的残差网络中宽激活对性能的重要性,提出了 WDSR 模型,并证明其在大规模图像超分辨率基准测试中具有更好的准确性和效率,同时也在 2018 年 NTIRE 单图像超分辨率挑战中取得了好成绩。
Aug, 2018
本文提出了三种实用方法来优化低精度深度卷积神经网络,包括渐进式量化、随机量化以及联合知识蒸馏来提高网络训练。通过实验证明,该方法在各种数据集上表现良好。
Aug, 2019
通过调整激活函数范围并使用精细调整的预训练模型来组合简单技术,可以发现与 fp32 模型接近的低精度模型,同时提高了效率,本文证明了 4 位精度足以进行分类。
Sep, 2018
本研究提出了三种简单有效的方法来优化低精度权重和低比特位激活函数的深度卷积神经网络:第一,采用两阶段优化策略以逐步找到好的局部最小值;第二,逐步降低比特数;第三,同时训练全精度模型和低精度模型以提供指引。该方法在不降低网络性能的情况下成功地减小了深度学习训练的计算量和存储需求。
Nov, 2017
本文提出了一种名为 ActNN 的基于随机量化激活值实现的内存高效训练框架,该框架针对神经网络训练过程中内存不足的问题,利用分层、分维度、分样本的异质性进行多样化的量化,以达到减小内存占用和缩短训练时间的目的,Empirically 验证了 ActNN 的有效性,并表明其不会带来过大的精度损失。
Apr, 2021
本文提出使用浮点数表示权重和使用定点数表示激活,证明了相较于定点数表示,使用浮点数表示权重更加高效,同时能够优化硬件乘加器设计,实验表明这个方法最多可减少 36% 的权重存储和 50% 的硬件乘加器功耗。
Mar, 2017
通过对 ResNet 模块架构的详细实验研究,本文提出了一种新的网络架构 —— 宽残差网络 (WRNs),通过降低深度、增加宽度优化 ResNet 网络,证明其在准确度和效率上优于传统的浅而深层的残差网络模型,实现了在 CIFAR, SVHN, COCO 以及 ImageNet 等数据集上的准确度和效率的新突破。
May, 2016
该研究探讨了在资源有限设备上部署深度神经网络的量化方法,研究了极低比特网络,提出了解决量化值中的三个问题的新方法,并在 ImageNet 上进行了实验。结果表明,与现有的方法相比,所提出的再参数化三元网络(RTN)具有更好的精度和比特宽度效率,在 FPGA 上的计算模式也具有更高的功率和面积节省。
Dec, 2019