用于资源高效人工智能应用的三元神经网络
本文提出一种具有高效内存和计算的三进制权重网络(TWNs)方法,通过对浮点或双精度精度权重和三进制权重之间的欧几里德距离进行训练,实现了最小化计算开销。TWNs的表达能力优于二进制精度的相应网络,并且在MNIST、CIFAR-10和ImageNet数据集上实现了比二进制网络更好的分类性能,同时在PASCAL VOC数据集上进行的物体检测任务中,相较于二进制网络,TWNs的mAP表现也有了超过10%的提升。
May, 2016
本文介绍了一种基于训练的三元量化方法,该方法可帮助在移动设备上部署具有限功率预算的神经网络模型,该方法在降低权重精度的同时保持高准确性,并通过实验表明该模型在CIFAR-10和ImageNet上的性能优于传统方法。
Dec, 2016
本文提出了一种精细的量化方法(Fine-grained Quantization, FGQ),该方法可对预训练的全精度模型进行三值化,同时将激活限制为8位和4位。通过该方法,我们证明了无需额外训练,就可以在最先进的拓扑结构上实现最小分类精度损失。该方法可用于Resnet-101和Resnet-50等模型,可以消除75%的乘法运算,从而实现完整的8/4位推理管道,并在ImageNet数据集上实现最佳报告精度,性能提升潜力高达9倍。最终的量化模型可以在全精度模型的基础上提高15倍的性能。
May, 2017
本文提出了一种低精度深度神经网络训练技术,用于生成稀疏三元神经网络,该技术在训练期间考虑硬件实现成本,以实现重要的模型压缩,结果网络精度提高、内存占用和计算复杂性减少,与传统方法相比,在MNIST和CIFAR10数据集上,我们的网络稀疏度高达98%,比等价二进制和三进制模型小5&11倍,从而在硬件实现方面具有重大资源和速度优势。
Sep, 2017
本篇研究提出了一种新型的三值神经网络训练方法,使用删节高斯近似法将重量三值化的阈值合并到封闭形式的表示中,同时优化重量和量化器,在Imagenet分类任务中实现了与完全精度相比仅有的3.9/2.52/2.16%的精度下降。
Oct, 2018
该研究探讨了在资源有限设备上部署深度神经网络的量化方法,研究了极低比特网络,提出了解决量化值中的三个问题的新方法,并在 ImageNet 上进行了实验。结果表明,与现有的方法相比,所提出的再参数化三元网络(RTN)具有更好的精度和比特宽度效率,在 FPGA 上的计算模式也具有更高的功率和面积节省。
Dec, 2019
提出了一种利用熵约束技术创建稀疏三元神经网络的通用框架,以提高存储和计算效率,同时验证了该框架在CIFAR-10、CIFAR-100和ImageNet数据集上进行图像分类任务的有效性.
Apr, 2020
本文提出了一种快速高效的三值神经网络(FATNN)框架,通过精心设计实现依存的三值量化算法,针对计算复杂度和性能差异等挑战,大幅度提高了图像分类准确性,并在多个平台上进行了速度评估,成为进一步研究的强大基准。
Aug, 2020