Mar, 2024

RankMamba,在变形金刚时代评估 Mamba 的文档排名性能

TL;DR通过在经典的 IR 任务 - 文档排序中考察 Mamba 的效果,我们发现 Mamba 模型在与具有相同训练方法的基于 Transformer 的模型相比具有有竞争力的性能,但与 flash attention 等高效的 Transformer 实现相比,训练吞吐量较低。我们希望这项研究能够成为探索 Mamba 模型在其他经典 IR 任务中的起点。