Nov, 2024
BF-IMNA:一种比特流动内存神经架构用于神经网络加速
BF-IMNA: A Bit Fluid In-Memory Neural Architecture for Neural Network
Acceleration
TL;DR本研究针对混合精度神经网络在运行时缺乏灵活支持的问题,提出了一种名为BF-IMNA的比特流动内存计算加速器,能够在不进行硬件重新配置的情况下支持静态和动态混合精度。实验结果表明,在不同的技术、混合精度配置和供电电压下,BF-IMNA相比于当前的主流加速器在能效和吞吐量上有显著提升,能效提高20%和吞吐量提高2%。