Jan, 2024

深度网络中使用较低位宽累加器实现更廉价的推理

TL;DR我们提出了一种简单的方法来训练和微调高端深度神经网络,首次允许使用更廉价的 12 位累加器,而不会出现显著的准确度降低。最后,我们证明,通过进一步降低累加器的精度,并使用细粒度梯度逼近可以提高深度神经网络的准确性。