Jul, 2018

XNOR 神经引擎:一种用于 21.6 fJ/op 的硬件加速器 IP,用于二进制神经网络推理

TL;DR本文介绍了一种以 XNOR 神经引擎为核心的全数字可配置硬件加速器 IP,它能够实现卷积和稠密层的全自动计算,还能够与 MCU 的内核协同工作,实现更复杂的行为。该系统的能量成本仅为每个二进制操作 21.6fJ,足够执行最先进的 BNN 拓扑结构。