关键词accumulator-aware quantization
搜索结果 - 2
- A2Q+: 提高累加器感知的权重量化
通过限制权重和激活函数的精度,量化技术通常降低神经网络推理成本。最近的研究表明,降低累加器的精度可以进一步提高硬件效率,但存在数值溢出的风险,这会导致算术错误并降低模型的准确性。为了避免数值溢出并保持准确性,最新的工作提出了一种称为累加器感 - A2Q: 累加器感知量化与溢出保护
我们提出了一种适用于训练量化神经网络(QNNs)以避免在推断过程中使用低精度累加器时的溢出问题的新颖的权重量化方法 ——accumulator-aware quantization(A2Q)。A2Q 引入了一种受权重归一化启发的独特公式,根