PECAN:一种基于产品量化的内容可寻址存储器网络
本文研究了在 DNNs 中将传统的 MAC 操作替换为使用 product quantization 时的计算和内存占用情况,采用不同的 PQ 设置和训练方法,设计了第一个定制的硬件加速器来评估运行 PQ 模型的速度和效率,发现与高度优化的传统 DNN 加速器相比,PQ 配置能够使 ResNet20 的面积性能提高 40% 至 104%,且硬件性能优于近期的 PQ 解决方案 4 倍,只有 0.6% 的精度降低,为 PQ 模型的更广泛采用铺平了道路。
May, 2023
本研究提出了一种针对处理内存 (PIM) 量化的方法 (PIM-QAT),通过分析训练动态,引入反向传播和前向传播重缩放技术,提出批归一化 (BN) 校准和调整精度训练等技术,有效地解决了硬件约束引起的非理想因素,实现了 PIM 系统中具有可比性的推理精度。
Sep, 2022
本文研究使用量化方法对记忆扩充神经网络(MANN)进行压缩。经过深入探究,作者发现记忆寻址是影响性能的主要因素,并提出了一种鲁棒的量化方法来解决这个挑战。在实验中,该方法在计算能量和错误率方面比传统技术都有较大的改进。
Nov, 2017
为了应用 DNN 在移动设备中,我们提出了压缩 QNN 的新编码方案,使用 {-1, +1} 将其分解成多个二进制网络,使用位运算 (xnor 和 bitcount) 实现模型压缩、计算加速和资源节约。我们的方法非常适合在 FPGA 和 ASIC 上使用,验证了在大规模图像分类 (例如 ImageNet) 和物体检测任务中具有与全精度相近的性能。
May, 2019
该研究论文介绍了一种名为 HadaNets 的新型神经网络模型,可以在不占用太多内存和训练时间的情况下有效地训练和推理深度神经网络,同时具有优秀的模型压缩性能。
May, 2019
该论文介绍了一种用于大规模图像检索的深度渐进量化模型,该模型学习逐步逼近视觉特征的量化码,并且可以同时训练不同码长的量化码,实现了优于现有技术的图像检索效果。
Jun, 2019
本研究提出了一种基于可训练的截断参数的量化方案 PAMS,通过引入结构化知识转移(SKT)损失对量化网络进行微调,实现了超分辨率模型的压缩和加速,并实现了新的 PSNR 记录。
Nov, 2020
本文提出了一种名为产品量化对抗生成(PQ-AG)的方法,在处理大规模数据集时更高效,但存在输入小细微扰动的漏洞,实验表明该方法能成功创建这种扰动,并显著降低白盒和黑盒环境下的检索性能。
Feb, 2020
本研究提出了一种针对权重和激活值分别进行的深度学习量化技术,该技术结合了权重量化方案 SAWB 和激活量化技术 PACT,在多个模型和数据集上实现了媲美全精度网络的最新分类精度。
Jul, 2018
通过使用二次幂量化和基于位移乘累加运算代替传统的乘累加运算,以及基于对数量化的新型剪枝方法,本文在基于 Zynq UltraScale + MPSoC ZCU104 SoC FPGA 的硬件神经网络加速器中实现了 Power-of-Two (PoT) 权重,实现了至少 $1.4x$ 的能效提升。
Sep, 2022