May, 2024

解读视觉中的莽巴:线性注意力视角

TL;DR探索了 Mamba 模型与线性注意力 Transformer 之间的相似性和差异性,发现忘记门和块设计是 Mamba 模型成功的核心因素,并通过融合这两个关键设计提出了 Mamba-Like Linear Attention (MLLA) 模型,该模型在图像分类和高分辨率密集预测任务中优于多种视觉任务中的 Mamba 模型,同时具有可并行计算和快速推理速度。