Apr, 2023

通过模块化线性化注意力提高自回归 NLP 任务的性能

TL;DR本文提出基于模块化线性化注意力(MLA)的自然语言处理技术,通过结合多种高效的注意力机制,并验证其在自回归任务上显著提升了推理质量和效率。