Aug, 2024
固定点算术下量化神经网络的表达能力研究
On Expressive Power of Quantized Neural Networks under Fixed-Point
Arithmetic
TL;DR本研究解决了量化神经网络在固定点算术下的普适逼近性质的问题,填补了当前通常考虑实数参数和无舍入误差的研究空白。通过提供针对固定点算术和激活函数的必要条件和充分条件,证明了多种流行的激活函数可以实现普适逼近,特别是在对激活函数施加轻微条件后,得到了一类激活函数的必要与充分条件,最终表明即使是使用二值权重的量化网络也能够进行普适逼近。