Oct, 2023

中间发现:排列自一致性提升大型语言模型的列表排名

TL;DR大型语言模型 (LLMs) 在使用上下文方面存在位置偏倚,尤其是在列表排序方面。为解决这个问题,我们提出了置换自一致性,这是一种对黑盒 LLMs 的排序列表输出的自一致性形式。我们的关键思想是通过将提示中的不同列表顺序边际化来产生一个无序偏倚更少的排序。我们在排序和段落重新排序的五个列表排序数据集上进行了实证实验,我们的方法在 GPT-3.5 上相比传统推理提高了 7-18%,在 LLaMA v2 (70B) 上提高了 8-16%,超过了先前的段落重新排序最先进技术。