Jan, 2024

基于神经 ODE 的高性价比 FPGA 实现的微型 Transformer 模型

TL;DR使用神经 ODE 作为骨干架构,我们显著减少了混合模型的参数大小,并将提出的 FPGA 实现部署在资源有限的 FPGA 设备上,从而实现了 12.8 倍的加速和 9.21 倍的能量效率。