Jun, 2024

基于相量驱动的快速傅里叶变换卷积神经网络加速

TL;DR通过使用极相表达形式作为替代传统方法的更高效的选择,我们的方法在 CIFAR-10 和 CIFAR-100 数据集上相较于现代 CNN 架构采用的矩形形式,实现了训练和推断速度的最高提升分别达到 1.376 和 1.390。同时,我们的方法可应用于任何基于卷积的深度学习模型,而无需进行设计更改。