Jun, 2024

基于相量驱动的快速傅里叶变换卷积神经网络加速

TL;DR通过使用极相表达形式作为替代传统方法的更高效的选择,我们的方法在CIFAR-10和CIFAR-100数据集上相较于现代CNN架构采用的矩形形式,实现了训练和推断速度的最高提升分别达到1.376和1.390。同时,我们的方法可应用于任何基于卷积的深度学习模型,而无需进行设计更改。