Oct, 2024

大型语言模型中的注意力产生高效的零-shot 重新排序器

TL;DR本研究解决了大型语言模型(LLMs)在信息检索中的重新排序能力受限制的问题,提出了一种名为“情境内重新排序”(ICR)的新方法。通过直接利用搜索查询引起的注意力模式变化,ICR显著提高了重新排序的效率,并且可适用于任何LLM,实验证明其在性能上优于现有方法,并减少了超过60%的延迟。