Mar, 2024

使用大型语言模型的多条件排名

TL;DR利用大型语言模型(LLMs)对一组项进行排名已成为推荐和检索系统中的常见方法。本文通过引入适用于评估各种项目类型和条件的多条件排名的基准 MCRank,对 LLMs 进行了分析,表明随着项目和条件数量以及复杂性的增长,性能显著下降。为克服这一限制,我们提出了一种新颖的分解推理方法 EXSIR,通过提取和排序条件,然后迭代地对项目进行排名,显著提高了 LLMs 的性能,达到了现有 LLMs 的 12%的改进。我们还对 LLMs 在各种条件类别下的性能进行了详细分析,检验了分解步骤的有效性。此外,我们将我们的方法与 Chain-of-Thought 和编码器类型的排名模型等现有方法进行了比较,展示了我们方法的优越性以及 MCR 任务的复杂性。我们已发布了我们的数据集和代码。