May, 2023
Edge-MoE:使用Experts混合方法的记忆高效式多任务视觉Transformer架构和任务级别稀疏性
Edge-MoE: Memory-Efficient Multi-Task Vision Transformer Architecture
with Task-level Sparsity via Mixture-of-Experts
TL;DR该研究提出了Edge-MoE的解决方案,这是第一个针对multi-task ViT的端到端FPGA加速器,其创新包括Novel Reordering Mechanism、Fast Single-Pass Softmax Approximation、Low-Cost GELU Approximation、Unified Computing Unit和Novel Patch Reordering Method。 较GPU和CPU相比,Edge-MoE的能源效率分别提高了2.24x和4.90x。