关键词linear attention mechanisms
搜索结果 - 2
- 通过正交内存实现线性关注
通过使用正交内存(LAVO),我们提出了线性注意力方法的一种改进,通过正交分解将上下文压缩为固定大小的正交内存,同时最小化上下文中的冗余,并通过嵌入相对位置编码来改善外推能力。实验证明,LAVO 极大地提高了因果语言模型的效率,并在最佳外推 - 卷积变形器用于视觉
提出了一种基于线性注意力机制的混合体系结构 ——Convolutional X-formers for Vision(CXV)。通过将 Quintic Transformer,Nyströmformer 和 Linear Transform