Sep, 2024
BitQ:为资源受限设备提高深度神经网络效率的块浮点精度调整
BitQ: Tailoring Block Floating Point Precision for Improved DNN
Efficiency on Resource-Constrained Devices
TL;DR本研究针对深度神经网络在嵌入式平台上运行时计算复杂度和内存消耗过高的问题,提出了一种基于块浮点的位宽感知分析建模框架("BitQ")。通过优化块大小和位宽分布,研究表明优化后的BFP DNN在保持准确性的同时显著提高了计算效率。