Apr, 2024
FFN-SkipLLM:自适应前馈跳过的自回归解码中的隐藏宝石
FFN-SkipLLM: A Hidden Gem for Autoregressive Decoding with Adaptive Feed Forward Skipping
Ajay Jaiswal, Bodun Hu, Lu Yin, Yeonju Ro, Shiwei Liu...
TL;DR通过使用 FFN-SkipLLM 方法,可以减少 FFN 块数量来提高自回归解码速度,并在知识密集型生成任务上保持较好性能。