BriefGPT.xyz
大模型
Ask
alpha
关键词
linear attention transformer
搜索结果 - 1
解读视觉中的莽巴:线性注意力视角
探索了 Mamba 模型与线性注意力 Transformer 之间的相似性和差异性,发现忘记门和块设计是 Mamba 模型成功的核心因素,并通过融合这两个关键设计提出了 Mamba-Like Linear Attention (MLLA)
→
PDF
a month ago
Prev
Next