FATNN: 快速和准确的三元神经网络
本文介绍了一种基于训练的三元量化方法,该方法可帮助在移动设备上部署具有限功率预算的神经网络模型,该方法在降低权重精度的同时保持高准确性,并通过实验表明该模型在 CIFAR-10 和 ImageNet 上的性能优于传统方法。
Dec, 2016
本文提出了基于三值神经网络和师生模型的新型深度学习方法,并在 FPGA 和 ASIC 硬件上实现;相比现有技术,该方案在提高准确率的前提下,节约了高达 3.1 倍的能源。
Sep, 2016
该研究探讨了在资源有限设备上部署深度神经网络的量化方法,研究了极低比特网络,提出了解决量化值中的三个问题的新方法,并在 ImageNet 上进行了实验。结果表明,与现有的方法相比,所提出的再参数化三元网络(RTN)具有更好的精度和比特宽度效率,在 FPGA 上的计算模式也具有更高的功率和面积节省。
Dec, 2019
本文提出了一种新型 IMC 加速器 FAT,其中使用 Sparse Addition Control Unit 来利用 TWNs 的稀疏性,使用快速加法方案来避免传输和存储时间开销,并使用 Combined-Stationary 数据映射来提高内存列中的并行性,模拟结果表明,FAT 相比于现有的 IMC 加速器 ParaPIM 可以实现 2.00X 的加速,1.22X 的功率效率和 1.22X 的面积效率,对于 80%平均稀疏度的网络,FAT 可以实现 10.02X 的加速和 12.19X 的能量效率。
Jan, 2022
Ternary neural networks offer superior accuracy-energy trade-off, and the xTern extension of the RISC-V instruction set architecture accelerates TNN inference on general-purpose cores, achieving higher throughput, improved energy efficiency, and higher CIFAR-10 classification accuracy.
May, 2024
本篇研究提出了一种新型的三值神经网络训练方法,使用删节高斯近似法将重量三值化的阈值合并到封闭形式的表示中,同时优化重量和量化器,在 Imagenet 分类任务中实现了与完全精度相比仅有的 3.9/2.52/2.16% 的精度下降。
Oct, 2018
本文提出了一种精细的量化方法 (Fine-grained Quantization, FGQ),该方法可对预训练的全精度模型进行三值化,同时将激活限制为 8 位和 4 位。通过该方法,我们证明了无需额外训练,就可以在最先进的拓扑结构上实现最小分类精度损失。该方法可用于 Resnet-101 和 Resnet-50 等模型,可以消除 75% 的乘法运算,从而实现完整的 8/4 位推理管道,并在 ImageNet 数据集上实现最佳报告精度,性能提升潜力高达 9 倍。最终的量化模型可以在全精度模型的基础上提高 15 倍的性能。
May, 2017
本文提出一种具有高效内存和计算的三进制权重网络(TWNs)方法,通过对浮点或双精度精度权重和三进制权重之间的欧几里德距离进行训练,实现了最小化计算开销。TWNs 的表达能力优于二进制精度的相应网络,并且在 MNIST、CIFAR-10 和 ImageNet 数据集上实现了比二进制网络更好的分类性能,同时在 PASCAL VOC 数据集上进行的物体检测任务中,相较于二进制网络,TWNs 的 mAP 表现也有了超过 10%的提升。
May, 2016