Dec, 2023

通过正交内存实现线性关注

TL;DR通过使用正交内存(LAVO),我们提出了线性注意力方法的一种改进,通过正交分解将上下文压缩为固定大小的正交内存,同时最小化上下文中的冗余,并通过嵌入相对位置编码来改善外推能力。实验证明,LAVO 极大地提高了因果语言模型的效率,并在最佳外推性能上优于其他高效方法。