BriefGPT.xyz
大模型
Ask
alpha
关键词
low-precision accumulators
搜索结果 - 2
深度网络中使用较低位宽累加器实现更廉价的推理
我们提出了一种简单的方法来训练和微调高端深度神经网络,首次允许使用更廉价的 12 位累加器,而不会出现显著的准确度降低。最后,我们证明,通过进一步降低累加器的精度,并使用细粒度梯度逼近可以提高深度神经网络的准确性。
PDF
5 months ago
A2Q: 累加器感知量化与溢出保护
我们提出了一种适用于训练量化神经网络(QNNs)以避免在推断过程中使用低精度累加器时的溢出问题的新颖的权重量化方法 ——accumulator-aware quantization(A2Q)。A2Q 引入了一种受权重归一化启发的独特公式,根
→
PDF
10 months ago
Prev
Next